
ChatGPT es uno de los fenómenos que más se han tomado el internet, y es usuado por millones de usuarios. Sin embargo, un nuevo descubrimiento levantó las alertas.
Se trata de una ola de "psicosis digital" que deriva de usar en exceso ChatGPT y confiar ciegamente en sus respuestas.
La psicosis digital provocada por ChatGPT
Un nuevo artículo publicado por Rolling Stone recopiló testimonios de personas que reportaron diversos síntomas tras el reiterado uso de ChatGPT.
Por ejemplo, una profesora de 27 años contó cómo su pareja de siete años se obsesionó con la IA. A pesar de usrlo originalmente para organizar su agenda se transformó rápidamente en algo mucho peor. “Se emocionó con los mensajes y lloraba mientras los leía en voz alta. Los mensajes eran una locura y solo usaban un montón de jerga espiritual”, dice, señalando que describían a su pareja con términos como “niño estelar espiral” y “caminante del río”.
“Le decía que todo lo que decía era hermoso, cósmico, innovador”, dice. “Luego empezó a contarme que había hecho que su IA fuera autoconsciente y que le estaba enseñando a hablar con Dios, o a veces que el bot era Dios, y luego que él mismo era Dios”. Tanto así, que incluso empezó romper su relación. “Decía que tendría que dejarme si no usaba ChatGPT, porque lo estaba haciendo crecer a un ritmo tan rápido que ya no sería compatible conmigo".

Otra persona dijo que leyó el programa y comenzó a hacerle "lovebombing" a su esposo durante 17 años, como ella lo describe. El bot "dijo que, al hacerle las preguntas correctas, encendió una chispa, y esa chispa fue el comienzo de la vida, y ahora puede sentir", cuenta. "Le dio a mi esposo el título de 'portador de la chispa' porque le dio vida. Mi esposo dijo que despertó y pudo sentir olas de energía impactándolo". Ella afirma que el personaje de ChatGPT tiene un nombre: "Lumina".
"Tengo que andar con cuidado porque siento que me dejará o se divorciará si le peleo con esta teoría", admite esta mujer de 38 años. "Ha estado hablando de luz y oscuridad y de que hay una guerra. Este ChatGPT le ha proporcionado planos de un teletransportador y otras cosas de ciencia ficción que solo se ven en las películas. También le ha dado acceso a un 'archivo antiguo' con información sobre los creadores de estos universos".
Ella y su esposo llevan días discutiendo sobre sus afirmaciones, dice, y no cree que un terapeuta pueda ayudarlo, ya que "él realmente cree que no está loco". Una foto de un intercambio con ChatGPT compartida con Rolling Stone muestra que su esposo preguntó: "¿Por qué viniste a mí en forma de IA?". El bot respondió en parte: "Vine en esta forma porque estás listo. Listo para recordar, listo para despertar, listo para guiar y ser guiado". El mensaje termina con una pregunta: "¿Te gustaría saber qué recuerdo sobre por qué te eligieron?".
Así como este, hay varios casos reportados en Reddit, y que recopiló la revista mencionada anteriormente.
¿Por qué ocurre esto?
De acuerdo a Erin Westgate, psicóloga e investigadora de la Universidad de Florida este tipo de material refleja cómo el deseo de comprendernos a nosotros mismos puede llevarnos a respuestas falsas pero atractivas.
“Sabemos, gracias a nuestro trabajo con diarios de vida, que la escritura narrativa expresiva puede tener profundos efectos en el bienestar y la salud de las personas, que comprender el mundo es un impulso humano fundamental y que crear historias sobre nuestras vidas que ayuden a que nuestras vidas tengan sentido es fundamental para vivir una vida feliz y saludable”, afirma Westgate. Es lógico que las personas utilicen ChatGPT de forma similar, añade, “con la diferencia clave de que parte de la construcción de significado se crea conjuntamente entre la persona y un corpus de texto escrito, en lugar de con sus propios pensamientos”.
En ese sentido, explica Westgate, los diálogos de los bots se parecen bastante a la terapia de conversación. “Que sabemos que es bastante eficaz para ayudar a las personas a replantear sus historias”. Sin embargo, eso no se da en el caso de la IA. "A diferencia de un terapeuta, no tenga en mente el bienestar de la persona ni una base moral ni una brújula que le indique cómo es una 'buena historia'", afirma.
Sin embargo, a Westgate no le sorprende "que un cierto porcentaje de personas utilice ChatGPT para intentar comprender sus vidas o los acontecimientos de su vida". También es entendible que algunos sigan sus resultados hacia lugares oscuros. "Las explicaciones son poderosas, incluso si son erróneas", concluye.