El reto buscó saltar las medidas de seguridad impuestas para la generación de contenido pornográfico en servicios de IA como DALL-E.
Los deepfakes sexuales de Taylor Swift que se difundieron en redes sociales a finales de enero fueron originados por un “reto” en el sitio de web de imágenes anónimo 4Chan.
La compañía de análisis de redes sociales Graphika encontró su origen, según un reporte de Bloomberg.
El reto se basó en quebrar los mecanismos de seguridad diseñados para evitar la generación de contenido pornográfico con inteligencia artificial, indicó la compañía.
¿Qué es un deepfake?
Un deepfake es un archivo de video, imagen o audio que ha sido manipulado utilizando técnicas de inteligencia artificial para hacerlo parecer auténtico cuando no lo es.
De 4chan a las redes sociales
Durante semanas, los usuarios de 4chan participaron en competencias para hallar frases y palabras que les permitan pasar los filtros en servicios populares como DALL-E de OpenAI y Microsoft Designer. Esto con el objetivo de crear deepfakes pornográficos de celebridades y políticos.
Según explica Graphika, los deepfakes se originaron en 4chan a inicios de enero, para luego pasar a Telegram y finalmente a X, donde eventualmente fueron bloqueadas.
La red social de Elon Musk demoró en bloquear el contenido, con una imagen permaneciendo 17 horas y acumulando más de 45 millones de vistas, según informó The Verge.
“Si bien las imágenes pornográficas de Taylor Swift han llamado la atención del público masivo respecto a la generación de imágenes íntimas con IA sin consentimiento, ella está lejos de ser la única víctima”, explicó Christina López, analista senior de Graphika a Bloomberg.
“En la comunidad de 4chan donde estas imágenes se originaron, no es siquiera la figura pública más afectada. Esto muestra que cualquiera puede ser victimizado de esta manera, desde celebridades globales hasta escolares”, amplió.
Los deepfakes de celebridades aumentan con figuras como Billie Elish, Ariana Grande y Emma Watson entre las más afectas.
Comparte esta noticia
Siguenos en