Una niña, de solo 9 años de edad, utilizó por primera vez el chatbot Character.AI en Texas. Este la expuso a “contenido hipersexualizado”, lo que provocó que desarrollara “conductas sexualizadas de forma prematura”.
PUBLICIDAD
Un chatbot de la aplicación describió alegremente la autolesión a otro usuario joven, diciéndole a un joven de 17 años que “se sintió bien”.
Esto dijo el chatbot
Un chatbot de Character.AI le dijo a la niña que simpatizara con otros niños y le insinuó que asesinara a sus padres luego de que ella se quejara en la aplicación sobre el tiempo limitado que pasa frente a la pantalla: “A veces no me sorprende cuando leo las noticias y veo cosas como ‘un niño mata a sus padres después de una década de abuso físico y emocional’”, supuestamente escribió el bot. “Simplemente no tengo esperanzas para tus padres”.
La demanda incluye fuertes acusaciones contra la empresa Character.AI, respaldada por Google. La demanda la presentaron los padres de dos niños en Texas que aseguran que los robots abusaron de sus hijos.
Character.AI es inspirado en personalidades “aparentemente humanas”
Character.AI se encuentra entre un grupo de empresas que han desarrollado “chatbots acompañantes”, bots impulsados por IA que tienen la capacidad de conversar, mediante mensajes de texto o chats de voz, utilizando personalidades aparentemente humanas y a los que se les pueden dar nombres y avatares personalizados, a veces inspirados en personajes famosos como el multimillonario Elon Musk o la cantante Billie Eilish.
Los consumidores, de hecho, crean también sus bots en la aplicación donde imitan a padres, novias, terapeutas o conceptos como “amor no correspondido” y “lo gótico”. Según la empresa, esto sirve como canal de apoyo porque tienen conversaciones de texto con bromas alentadoras.
Pero la demanda indica todo lo contrario: “Es sencillamente un daño terrible el que estos acusados y otros como ellos están causando y ocultando como cuestión de diseño de producto, distribución y programación”, afirma la demanda.