Una creciente cantidad de imágenes aparentemente generadas por inteligencia artificial (IA) han llamado la atención de los usuarios y expertos por ser extrañas, lo que ha llevado a que sean investigadas.
Estas extrañas imágenes se han extendido por las redes sociales como Facebook o Instagram. El problema recae en que muchos grupos se llenan de imágenes destinadas a evocar un sentimiento determinado: por ejemplo, imágenes especialmente tiernas de abuelas con pasteles o cabañas acogedoras. Algunas son más insólitas, como una imagen de Jesús hecha con crustáceos.
¿Quién llevó a cabo la investigación por estas imágenes?
El problema ahora ha escalado tanto que un equipo de investigadores del Observatorio de Internet de Stanford y del Centro de Seguridad y Tecnologías Emergentes de la Universidad de Georgetown puso en marcha una investigación de más de 100 páginas de Facebook que presentaban una cantidad especialmente elevada de contenido generado por inteligencia artificial (IA).
El nuevo artículo se titula ‘How Spammers and Scammers Leverage AI-Generated Images on Facebook for Audience Growth’ (que en español sería Cómo aprovechan los spammers y estafadores las imágenes generadas por inteligencia artificial en Facebook para aumentar su audiencia), y el mismo asegura que el conflicto se debe a que la gente busca aumentar sus seguidores en las redes sociales.
¿Qué señala la investigación sobre este curioso hecho con la IA?
“Gran parte de la investigación y el discurso sobre los riesgos de los generadores de imágenes de inteligencia artificial (IA), como DALL-E y Midjourney, se ha centrado en si podrían utilizarse para implantar información falsa en el discurso político”, escriben los autores. “Demostramos que los spammers y estafadores —aparentemente motivados por el lucro o la influencia, no por la ideología— ya están utilizando imágenes generadas por IA para ganar una tracción significativa en Facebook”.
Chris Cox, jefe de producto de Meta que creó el feed original, habló con The Independent sobre el crecimiento de este tipo de imágenes falsas durante un evento sobre inteligencia artificial a principios de este mes.
“La clave aquí es: la experiencia del usuario a lo largo del camino. Hay que asegurar que nadie se sorprenda de la experiencia que está teniendo y confiar en herramientas sencillas de experiencia de usuario que etiqueten las IA cuando las veamos”, dijo. “Por si sirve de algo, la cantidad de contenidos generados por IA en los feeds sigue siendo de minimos”.
Pero en el nuevo artículo se sugiere que, por ahora, al menos algunos de esos grupos comparten imágenes sin etiquetar. Esas imágenes sin etiquetar aparecen incluso a personas que no siguen a los grupos ni se dan cuenta de que son generadas por IA, lo que significa que fácilmente la gente podría confundirlas con fotos auténticas.