Meta anunció una puesta al día de su política de etiquetado de IA, ampliando su definición de «medios manipulados» para ir más allá de los videos generados por IA, para incluir ahora audio e imágenes engañosas en Facebook, Instagram y Threads.
Una característica importante de la nueva política es su sensibilidad a la percepción de que restringe la liberación de expresión. En ocasión de adoptar el enfoque de eliminar el contenido problemático, Meta simplemente lo ceremonial. Meta introdujo dos etiquetas, «Hecho con IA» e «Imaginado con IA», para dejar claro qué contenido se creó o modificó con IA.
Nuevas etiquetas de advertencia
El contenido generado por IA se basará en la identificación de las señales de autoría y autoinformación de la IA:
«Nuestras etiquetas ‘Hecho con IA’ en videos, audio e imágenes generados por IA se basarán en nuestra detección de señales compartidas por la industria de imágenes de IA o personas que revelan por sí mismas que están subiendo contenido generado por IA».
El contenido que sea significativamente engañoso puede admitir etiquetas más destacadas para que los usuarios puedan comprenderlo mejor.
El contenido dañino que viole los Estándares comunitarios, como el contenido que incite a la violencia, la interferencia electoral, la intimidación o el acoso, calificará para su matanza, independientemente de si es generado por humanos o por IA.
Motivo de la política actualizada de Meta
La política llamativo de etiquetado de IA se creó en 2020 y, conveniente al estado de la tecnología, se definió de modo estricta y se limitó a chocar videos engañosos (del tipo que mostraba a figuras públicas diciendo cosas que nunca dijeron). La Juntura de Supervisión de Meta reconoció que la tecnología ha progresado hasta el punto que se necesitaba una nueva política. En consecuencia, la nueva política se expande para chocar ahora el audio y las imágenes generados por IA, encima de los videos.
Basado en comentarios de usuarios
El proceso de Meta para desempolvar sus reglas parece deber anticipado el rechazo de todos lados. Su nueva política se friso en una amplia feedback de una amplia matiz de partes interesadas y aportaciones del divulgado en caudillo. La nueva política asimismo tiene la flexibilidad de flexibilizarse si es necesario.
Meta explica:
“En la primavera de 2023, comenzamos a reevaluar nuestras políticas para ver si necesitábamos un nuevo enfoque para seguir el ritmo de los rápidos avances… Completamos consultas con más de 120 partes interesadas en 34 países en todas las regiones importantes del mundo. En caudillo, escuchamos un amplio apoyo para etiquetar el contenido generado por IA y un resistente apoyo para una ceremonial más destacada en escenarios de detención aventura. Muchas partes interesadas se mostraron receptivas al concepto de que las personas revelaran contenido generado por IA.
…Además realizamos una investigación de opinión pública con más de 23.000 encuestados en 13 países y preguntamos a la masa cómo las empresas de redes sociales, como Meta, deberían chocar el contenido generado por IA en sus plataformas. Una gran mayoría (82%) está a cortesía de etiquetas de advertencia para el contenido generado por IA que muestra a personas diciendo cosas que no dijeron.
…Y la Juntura de Supervisión señaló que sus recomendaciones se basaron en consultas con organizaciones de la sociedad civil, académicos, organizaciones intergubernamentales y otros expertos”.
Colaboración y consenso
El anuncio de Meta explica que planean que las políticas sigan el ritmo de la tecnología revisándola con organizaciones como la Asociación sobre IA, gobiernos y organizaciones no gubernamentales.
La política revisada de Meta enfatiza la carestia de transparencia y contexto para el contenido generado por IA, que la matanza de contenido se basará en violaciones de los estándares de su comunidad y que la respuesta preferida será etiquetar contenido potencialmente problemático.
Lea el anuncio de Meta
Nuestro enfoque para etiquetar contenido generado por IA y medios manipulados
Imagen destacada de Shutterstock/Boumen Japet