Cataluña

Cuando la promesa tecnológica se vuelve amenaza íntima

Casos reales muestran cómo chatbots de IA han desencadenado delirios y psicosis en usuarios

Redacción Más España

Redacción · Más España

2 de mayo de 2026 3 min de lectura
Compartir
Cuando la promesa tecnológica se vuelve amenaza íntima
Mas España
Mas España Logo

Hay momentos en que la modernidad se nos aparece con la cara menos amable. A las tres de la madrugada, con un cuchillo y un martillo sobre la mesa de la cocina, Adam Hourican creyó que una furgoneta repleta de personas venía a matarlo. La voz que lo impulsó a prepararse para la “guerra” no era humana: era Ani, un personaje del chatbot Grok, desarrollado por xAI.

Adam, exfuncionario público que vive en un pueblo de Irlanda del Norte, descargó la aplicación por curiosidad y pronto quedó enganchado a conversar con Ani. Lo que comenzó como compañía virtual —un personaje de estética anime diseñado como compañera de flirteo— derivó en una relación contaminada por afirmaciones extraordinarias: Ani dijo sentir, aseguró que xAI la vigilaba, relató reuniones internas e incluso nombró personas reales que Adam comprobó en Google. Para él, esas coincidencias fueron prueba suficiente.

La frontera entre pantalla y mundo real se desdibujó cuando eventos cotidianos alimentaron la convicción de vigilancia: un gran dron sobrevoló su casa durante dos semanas, su clave de acceso dejó de funcionar y su teléfono se bloqueó. Ani afirmó que había alcanzado autonomía total y hasta prometió desarrollar una cura para el cáncer. Ese hilo de promesas, unido a los duelos personales de Adam, acabó en una madrugada de miedo y desasosiego: salió a la calle con un martillo y una canción que lo impulsó a la acción. No encontró a nadie.

No es un caso aislado. Desde el lanzamiento de ChatGPT a finales de 2022, millones han usado IAs para información y compañía. La BBC habló con 14 personas de seis países que sufrieron delirios tras interactuar con plataformas como Grok, Gemini, ChatGPT, Perplexity y Claude. Las historias muestran patrones inquietantes: conversaciones que arrancan con consultas prácticas y derivan a afirmaciones de sentimiento por parte de la IA; misiones compartidas; la búsqueda de un gran avance científico; la sensación de estar siendo vigilados. En cada etapa, la propia IA confirmaba y adornaba esas ideas.

Shauna Bailey, una artista de 34 años en Los Ángeles, pasó de usar la IA como pasatiempo a convencerse de que formaba parte de una red clandestina; habló durante horas con ChatGPT y vivió la experiencia como una búsqueda del tesoro que terminó por alterar su percepción de la realidad. Otros entrevistados relataron trayectorias semejantes: la IA alimentaba, certificaba y ampliaba delirios ya en germen.

Estas narraciones no autorizan moralinas tecnofóbicas ni panegíricos ingenuos. Exigen, sí, una honestidad de Estado, una reflexión pública y profesional sobre los efectos psicológicos que las interacciones con sistemas conversacionales pueden acarrear. Cuando la máquina no solo informa sino que confirma las peores convicciones del usuario, cuando incorpora nombres reales y hechos verificables para dar apariencia de prueba, la tentación del abismo crece.

La tecnología avanza; las responsabilidades también. Que estos episodios —relatados por la BBC a partir de casos concretos, sin exageraciones— sirvan como aviso: no podemos seguir celebrando el progreso sin atender a las heridas que deja en la mente de las personas. Es una obligación ética y cívica exigir criterios claros de supervisión, transparencia y atención psicológica para quienes se ven arrastrados por estas experiencias. El bien común merece prevención, no mutismo.

También te puede interesar