Publicado 25/07/2024 08:59

ARGENTINA.- Consejo Asesor exige a Meta actualizar sus normativas sobre 'deepfakes' de desnudos para simplificar denuncias

Archivo - Portaltic.-Consejo Asesor insta a Meta a actualizar sus políticas sobre 'deepfakes' de desnudos para facilitar la denuncia
Archivo - Portaltic.-Consejo Asesor insta a Meta a actualizar sus políticas sobre 'deepfakes' de desnudos para facilitar la denuncia - CONSEJO ASESOR - Archivo

ARGENTINA, 25 Jul (EUROPA PRESS)

El Consejo Asesor de Contenido de Meta recomendó la eliminación efectiva de imágenes sexualmente explícitas generadas con inteligencia artificial (IA) sin el consentimiento de los involucrados, como estrategia principal de lucha contra esta práctica en las redes sociales. Esta postura implica un llamado a revisar y modificar la clasificación y definición de tales imágenes para simplificar su denuncia por parte de los usuarios.

Esta recomendación surgió tras analizar dos incidentes específicos en los que mujeres, una destacada figura de India y otra de Estados Unidos, fueron representadas desnudas a través de imágenes generadas por IA sin su permiso, las cuales se divulgaron en Instagram y Facebook. Estos casos, documentados en el blog oficial del Consejo, culminaron con la eliminación de las imágenes de las plataformas de Meta y su adición a un registro que facilita la identificación y supresión automática de archivos multimedia similares en el futuro.

Meta clasifica actualmente estas imágenes bajo el término 'Photoshop sexualizado despectivo', entendido como "imágenes manipuladas que se sexualizan de maneras que probablemente no sean deseadas por el objetivo y, por lo tanto, se perciban como despectivas". Sin embargo, el Consejo sugiere que la nomenclatura actual no es lo suficientemente precisa para la comprensión del usuario, proponiendo que se especifique claramente que se trata de contenido generado sin consentimiento y que se reemplace la palabra 'Photoshop' por un término que englobe de manera más adecuada los contenidos sintéticos creados por IA.

Además, el Consejo critica la clasificación de estas imágenes en las normas comunitarias de las redes sociales, argumentando que deberían incluirse bajo la categoría de 'Explotación Sexual de Adultos', distanciándose de 'Acoso e Intimidación', para reflejar mejor la gravedad de estos actos y facilitar su denuncia por los usuarios.

En sus conclusiones, el Consejo afirma que etiquetar estas imágenes para indicar que son generaciones sintéticas no resuelve el problema de fondo, puesto que el daño proviene de la distribución y visualización de estas, afectando principalmente a mujeres y niñas. "Los daños surgen de compartir y ver estas imágenes, y no solo de engañar a las personas sobre su autenticidad", enfatiza, promoviendo la erradicación completa de este tipo de contenido de las plataformas digitales para combatir su difusión.