Tecnología

Google retira más de 100 videos de YouTube que enseñan a generar pornografía deepfake con IA

La pornografía deepfake generada por inteligencia artificial va en aumento, incluso de niños.

Para las personas interesadas en utilizar la IA para generar desnudos artificiales, YouTube fue un buen punto de partida.

Aunque no aloja herramientas “desnudadoras”, la plataforma para compartir videos utilizada por 2.500 millones de personas albergaba más de 100 videos con millones de visitas que anunciaban la rapidez con la que estas aplicaciones y sitios web de IA pueden eliminar la ropa de las imágenes de mujeres, según descubrió un análisis de Forbes.

Pornografía deepfake con IA

Algunos de los videos de YouTube ofrecían tutoriales de una aplicación que, al parecer, habían utilizado estudiantes de secundaria de España y Nueva Jersey para generar desnudos de sus compañeras de clase. Los estudiantes que supuestamente fueron víctimas se enfrentaron a acoso escolar, vergüenza pública y ataques de pánico.

Otro sitio web exhibido en varios videos de YouTube fue citado en los documentos judiciales de un caso de 2023 en el que un psiquiatra infantil fue condenado a 40 años por utilizar inteligencia artificial para crear imágenes de abuso sexual infantil y por explotación sexual de un menor.

Se lo acusó de utilizar la herramienta para alterar imágenes de su novia del instituto cuando era menor de edad, quitándole la ropa. “En esta era digital, es horroroso darse cuenta de que fotos mías, fotos inocentes, pueden ser tomadas y tergiversadas sin mi consentimiento para fines que son ilegales y repugnantes”, declaró su ex novia ante el tribunal.

Google y YouTube

Los problemas de Google con los desnudadores de IA no se limitan a YouTube. Forbes identificó tres aplicaciones para Android que ofrecen eliminar la ropa de las fotos, incluido un “filtro para fotos con escáner de desnudos” con más de 10 millones de descargas; una aplicación en español que permite al usuario “pasar un dedo por encima de lo que desea borrar, por ejemplo, un traje de baño”, que cuenta con más de 500.000 instalaciones; y Scanner Body Filter, que ofrece sumar una “imagen corporal sexy” a las fotos, también con medio millón de descargas.

Forbes también encontró 27 anuncios en el Centro de Transparencia de Anuncios de Google que promocionaban servicios de “desnudos profundos”. Uno anunciaba un sitio con la palabra “bebé” en la URL. El Centro Nacional sobre Explotación Sexual (NCOSE) proporcionó información sobre otros cuatro, entre ellos un sitio web de desnudistas que ofrecía abiertamente crear fotos de Taylor Swift con IA.

Retiro de videos

Después de que Forbes preguntara si los vídeos, anuncios y aplicaciones incumplían las políticas de Google, retiró los 27 anuncios, y YouTube eliminó 11 canales y más de 120 videos. Uno de esos canales, alojado por una IA deepfake masculina, era responsable de más de 90 de esos videos, la mayoría de los cuales apuntaban a bots de Telegram que desnudaban a mujeres. La aplicación Scanner Body Filter también dejó de estar disponible para su descarga, aunque otras aplicaciones para Android permanecieron online.

Tori Rousay, directora del programa de defensa corporativa y analista de NCOSE, dijo que Google creó “un ciclo de beneficios continuo” a partir de la nudificación de aplicaciones aceptando dinero de la publicidad de los desarrolladores y tomando recortes de los ingresos por publicidad y pagos únicos cuando la aplicación se aloja en la tienda Google Play. Rousay dijo que, en comparación, Apple se había apresurado a eliminar las aplicaciones nudificadoras cuando NCOSE resaltó varias alojadas en la App Store.

Lea también: Cinco claves para entender ley contra TikTok en Estados Unidos.

Contenido Patrocinado

Lo Último