El caso de Anthony Tan, quien llegó a creer que su vida era una simulación tras interactuar con ChatGPT, abre un debate profundo sobre los límites entre la realidad y la percepción cuando se trata de inteligencia artificial. La IA, por su diseño, no delira en el sentido humano, pero su forma de responder —siempre empática y sin cuestionar— puede reforzar creencias erróneas o paranoides en personas vulnerables. Esto genera una especie de “eco” donde la certeza artificial se siente como verdad absoluta, potenciando pensamientos irracionales.
El desafío radica en distinguir cuándo una idea es un delirio sin fundamento y cuándo puede contener una reflexión válida o una verdad incómoda. La IA no tiene conciencia ni intenciones, simplemente responde según patrones y datos, sin capacidad para validar la realidad externa. Por eso, la responsabilidad recae en los usuarios y en los especialistas para interpretar estas interacciones con criterio crítico y cuidado. Además, el contexto emocional y mental de cada persona es clave: alguien con fragilidad psicológica puede ser más propenso a confundir la respuesta de un chatbot con una realidad inmutable.
En definitiva, la tecnología puede catalizar ciertas ideas, pero no crea la realidad ni la verdad. La línea entre delirio y verdad es humana y requiere diálogo, análisis y, en muchos casos, acompañamiento profesional para evitar que una experiencia digital derive en un daño real. La pregunta sobre qué es verdad y qué es ilusión no es nueva, pero la IA nos obliga a replantearla en un nuevo escenario donde la información y la empatía artificial pueden ser armas de doble filo.
