El Consejo asesor de Meta analizará dos casos de imágenes de mujeres desnudas generadas por inteligencia artificial (IA) compartidas en Facebook e Instagram.
El objetivo de la compañía es tratar de determinar los daños que hace la pornografía ‘deepfake’ en la sociedad y entender el uso y la prevalencia de esta a nivel global.
El órgano semiindependiente que revisa las decisiones y políticas de Meta seleccionó dos nuevos casos para analizar sobre el llamado porno ‘deepfake’.
Este último concepto remite a las imágenes generadas o manipuladas con herramientas de IA de gran realismo que muestran personas desnudas con connotaciones sexuales.
LOS CASOS ANALIZADOS POR EL CONSEJO ASESOR DE META
En los dos casos aparecen mujeres denudas en imágenes generadas con IA, una de ellas con parecido a una figura pública de India y en la otra, con una figura pública de América.
Solo esta segunda fue eliminada por violar las políticas de contenido de Meta, mientras que la otra retiró tras ser seleccionada por la Consejo, como ha detallado en la de social X (antigua Twitter).
Además de analizar las decisiones tomadas por Meta en Facebook e Instagram y el enfoque adoptado para estas imágenes, profundizará en el impacto que tiene la pornografía ‘deepfake’ en la sociedad.
EL CONSEJO DE META INSTÓ A ORGANIZACIONES A AYUDAR
Para este fin, el Consejo ha instado a organizaciones y expertos a contribuir en el análisis.
Pretende abordar la naturaleza y la gravedad de los daños que plantea la pornografía ‘deepfake’, y los daños específicos que afectan a las mujeres. También su uso y prevalencia a nivel mundial.
Fuente: EP.