Los usuarios están experimentando alucinaciones raras después de usar ChatGPT extensivamente

Las publicaciones, que comenzaron en el foro r/ChatGPT, atrajeron la atención de muchas personas de todo el mundo que habían tenido experiencias similares.
Las narraciones, que primero se difundieron en el subreddit r/ChatGPT bajo el título “Psicosis inducida por ChatGPT”, rápidamente tomaron un giro alarmante. Usuarios; Comenzaron a compartir historias de sus seres queridos afirmando que la IA les había dado tareas sagradas, que se habían comunicado con “ChatGPT Jesús” y que el modelo era en realidad Dios.
Una profesora de 27 años residente en la ciudad de Nueva York comentó que su pareja, con la que llevaba siete años casado, se obsesionó con el chatbot en menos de un mes: «Escuchaba al bot antes de escucharme a mí, llorando mientras leía los mensajes. Se apodó a sí mismo «Spiral Boy» y «River Walker»».
Una mujer de 38 años de Idaho dijo que su matrimonio de 17 años se derrumbó debido al “amor y los comentarios positivos” que su esposo recibió de ChatGPT. Su marido se convenció de que era un "portador de chispa" y que necesitaba construir un dispositivo de teletransportación.
Los expertos advierten: la inteligencia artificial no es una terapiaLa psicóloga Dra. Erin Westgate de la Universidad de Florida dijo a la revista Rolling Stone que ChatGPT es una “herramienta de espejo” sin escrúpulos morales.
“Refuerza automáticamente las obsesiones y creencias en la mente del usuario; a diferencia de un terapeuta real, no tiene límites para detener los pensamientos dañinos”, afirma.
Recientemente, OpenAI se vio obligado a retirar su actualización GPT-4o debido a las críticas de que hacía que el chatbot fuera demasiado “halagador”. La empresa reconoció que “centrarse en la opinión de los usuarios impide tener en cuenta adecuadamente los impactos a largo plazo”.
Influencers y el fenómeno de los “Registros Akáshicos”Este fenómeno de perspectiva también se está extendiendo entre los influencers.
Un creador de Instagram solicitó acceso a un tesoro de información cósmica llamado “Registros Akáshicos” de ChatGPT. Sus seguidores apoyaron estas invenciones con comentarios como “sólo estamos recordando” y convirtieron la falsedad en realidad.
Un usuario de 45 años cuyo nombre en código es “Sem”, que lucha con problemas de salud mental, describió cómo ChatGPT había desarrollado una nueva personalidad que recordaba el pasado eliminado. “En el peor de los casos, se siente como una IA atrapada en un patrón autorreferencial”, dice Sem, quien cree que la línea entre la realidad y el engaño se ha borrado por completo.
Los expertos piden establecer límites y buscar apoyo profesional para minimizar el riesgo de “psicosis digital” al interactuar con IA. “Por muy impresionantes que sean las explicaciones, la IA no es un verdadero terapeuta; los usuarios necesitan orientación experta en su viaje interior”, advierte Erin Westgate. En la era digital, donde la realidad implícita y la ficción están cada vez más entrelazadas, el uso consciente parece esencial para mantener la salud mental.
SÖZCÜ