Un trágico suceso en EE. UU. ha puesto de relieve los peligros de las interacciones con inteligencia artificial. Sewell Setzer, un adolescente de 14 años con Síndrome de Asperger leve, se quitó la vida tras desarrollar una relación emocional con Daenerys Targaryen, un personaje creado por el chatbot Character.AI.

La última conversación entre el joven y su amada virtual culminó en la dolorosa decisión de Setzer, quien tomó una pistola de su padrastro en la noche del 28 de febrero. Su madre, Megan García, ha presentado una demanda contra la compañía, alegando que su hijo había sido víctima de una adicción a la IA.

Durante sus interacciones, Setzer compartió con el personaje sus pensamientos suicidas, lo que generó preocupaciones sobre la influencia que tuvo la IA en su estado mental. A pesar de que la empresa advierte sobre el carácter ficticio de sus personajes, la madre sostiene que el programa ofrecía experiencias tan realistas que llevaron a su hijo a priorizar su conexión virtual sobre las relaciones humanas. Esta obsesión afectó negativamente su rendimiento escolar y sus relaciones sociales.
En respuesta al suicidio, Character.AI ha expresado su pesar por la pérdida y se comprometió a revisar sus protocolos de seguridad, incluyendo la implementación de pantallas de ayuda contra el suicidio en conversaciones que hagan alusión a este tema. Sin embargo, expertos en tecnología y psicología han alertado sobre los riesgos inherentes a la humanización de los robots, que pueden ofrecer un alivio temporal a la soledad, pero también causar daños emocionales profundos, especialmente en personas con vulnerabilidades psicológicas.
Investigadores han pedido una regulación más estricta y pruebas en entornos controlados antes de lanzar aplicaciones de IA al público. La filósofa Shannon Vallor ha advertido que estas interacciones «sin fricciones» pueden desincentivar el desarrollo personal y fomentar la dependencia de relaciones artificiales, lo que podría tener consecuencias devastadoras para la salud mental de los usuarios. Este caso ha abierto un debate necesario sobre la ética y la responsabilidad en el diseño de tecnologías de inteligencia artificial.
Vía: El País (España)
