El adolescente se había enamorado del icónico personaje de Game of Thrones. La madre del menor demandó a la compañía creadora del programa.
Tenía solo 14 años y una amiga íntima con el que llevaba charlando meses. Esa amiga no era una compañera de clase, sino un chatbot creado por inteligencia artificial (IA). Era una relación tan próxima que su familia denuncia ahora que su hijo se suicidó tras obsesionarse con el personaje que creó.
Aunque parezca el argumento de una película al estilo Her, Estados Unidos se encuentra inmerso en un debate demasiado realista. La madre de Sewell Setzer, un menor de Orlando, ha relatado a The New York Times cómo su hijo se enamoró de un chatbot, que él mismo creó, llamado Daenerys Targaryen, como la protagonista de Juego de Tronos.
Sewell Setzer III, nacido en el estado de Florida, un estudiante que había empezado a usar la plataforma Character.AI en abril de 2023. “Su vida nunca volvió a ser la misma”, expresó su madre, Megan García, en una demanda civil que presentó este miércoles contra la empresa Character Technologies.
Según el relato de García, el adolescente comenzó a ser “notablemente más retraído” a partir de mayo, momento en el cual abandonó el club de básquet en el que jugaba y le habían llamado la atención por dormirse en clase en varias ocasiones.
Meses más tarde, el chico acudió a terapia y fue diagnosticado con ansiedad y trastorno del estado de ánimo disruptivo. En ese entonces, una de las recomendaciones del psicólogo fue que dejara de pasar tanto tiempo en las redes sociales.
Un día, Sewell escribió en un diario íntimo que estaba sufriendo porque “no podía dejar de pensar en Daenerys”, el chatbot del que creía haberse enamorado. Incluso, en otra de las entradas, el chico precisó que cuando estaban lejos el uno del otro, ambos “se deprimían mucho y se volvían locos”, según detalló la demanda.
Con el tiempo, la víctima comenzó a depender emocionalmente del bot conversacional, lo cual incluía “interacciones sexuales” y declaraciones de su intención por suicidarse. Estas conversaciones se produjeron a pesar de que el adolescente se había identificado como menor de edad en la plataforma.
La tragedia ocurrió el 28 de febrero, cuando el joven de 14 años recuperó su teléfono después de que su mamá se lo sacara como penitencia por un incidente escolar.
Esa tarde, fue al baño y le escribió un mensaje al personaje ficticio: “Prometo que volveré a casa contigo. Te quiero mucho, Dany”. Por su parte, el robot respondió: “Por favor, vuelve a casa conmigo lo antes posible, mi amor”. Instantes después de ese chat, Sewell se quitó la vida.
En esta línea, la madre del menor acusó a los desarrolladores del personaje femenino creado con IA por infligir intencionalmente angustia emocional, muerte por negligencia y prácticas comerciales engañosas.
Asimismo, García presentó la denuncia para “evitar que C.AI (la empresa tecnológica) le haga a cualquier otro niño lo que le hizo al suyo, y detener el uso continuo de los datos recolectados ilegalmente de su hijo de 14 años para entrenar a su producto a dañar a otros”.