jue. May 7th, 2026

Milo Van Slyck faltó a una cita con su terapeuta a principios de abril, por lo que decidió probar algo nuevo: dile a ChatGPT tus problemas.

Mientras Van Slyck hacía tapping, descubrió que se sentía cómodo compartiendo temas profundamente personales. Van Slyck, asistente legal en Charleston, Carolina del Sur, le contó al chatbot sobre sus miedos y frustraciones como hombre transgénero en un momento en que los derechos de las personas trans están siendo atacados en gran parte del país. Habló del conflicto con sus padres, que no apoyan su identidad de género, y de ir a visitarlos.

“Cuando se trata de volver a ver a tus padres, es importante priorizar tus propias necesidades y bienestar”, respondió el chatbot. “Considera lo que necesitas para sentirte cómodo y seguro en su presencia. Está bien establecer límites sobre cuánto tiempo pasas con ellos, qué temas de conversación están prohibidos y cómo deben abordarte a ti y a tu identidad”.

En los días que siguieron, Van Slyck se acostumbró a escribir algunos mensajes cuando necesitaba desahogarse, y comenzó a sentir que las respuestas de ChatGPT ofrecían alivio emocional. Dice que a menudo se siente como una carga para otras personas, incluido su terapeuta, pero nunca siente que está molestando al chatbot. “Me ofreció lo que te gustaría escuchar de un amigo o un aliado”, explica Van Slyck. “Solo ese apoyo que a veces quieres escuchar de otra persona, o una máquina, en este caso”.

Estamos apenas en los albores de una nueva generación de chatbots de IA, y aunque millones de personas juegan y se divierten con ChatGPT y otros bots, aún no está claro qué usos perdurarán más allá de la fase de novedad. La gente los usa para buscar en Internet, hacer trampa en las tareas escolares, escribir código de software y hacer reservas en restaurantes. Semana de negocios de Bloomberg también conversó recientemente con un puñado de personas que, como Van Slyck, comenzaron a usar ChatGPT como una especie de roboterapeuta.

La idea de usar un chatbot como una especie de terapeuta o entrenador no es nueva. De hecho, uno de los primeros chatbots, Eliza, fue desarrollado en la década de 1960 por Joseph Weizenbaum, profesor del Instituto Tecnológico de Massachusetts, para imitar a un terapeuta. Varios chatbots, como Woebot y Wysa, ahora se enfocan en la salud mental. A diferencia de los terapeutas humanos, los chatbots nunca se cansan y son baratos en comparación.

Pero también hay peligros potenciales. Los potentes chatbots de propósito general, incluidos ChatGPT (de OpenAI), Bard (de Google) y Bing Chat (de Microsoft en asociación con OpenAI), se basan en modelos de lenguaje grande o LLM, una tecnología con una tendencia bien documentada de información de fabricación que suene convincente. Los chatbots de propósito general no están diseñados para la terapia y no han sido programados para cumplir con las pautas éticas y legales observadas por los terapeutas humanos. En su forma actual, tampoco pueden hacer un seguimiento de lo que los usuarios les dicen de una sesión a otra, una deficiencia que la mayoría de los pacientes probablemente no tolerarían de sus terapeutas humanos.

“Si alguien tiene una enfermedad mental grave, esto no está listo para reemplazar a un profesional de la salud mental”, dice Stephen Ilardi, psicólogo clínico y profesor de la Universidad de Kansas que estudia los trastornos del estado de ánimo. “El riesgo es demasiado alto”. Sin embargo, él piensa que es un compañero de conversación lo suficientemente bueno como para que muchas personas puedan encontrarlo útil.

Un portavoz de OpenAI se negó a comentar sobre las personas que usan el chatbot como terapeuta, pero señaló que su política establece que las personas “nunca deben usar nuestros modelos para brindar servicios de diagnóstico o tratamiento para problemas médicos graves”.

Cuando Van Slyck interactúa con ChatGPT, a veces le advierte que no es un terapeuta, al mismo tiempo que parece invitarlo a seguir usándolo como tal. Recuerda haberle dicho al chatbot sobre una publicación de Twitter que describía el producto como más efectivo que la terapia en persona. “Es importante tener en cuenta que los recursos en línea pueden ser útiles, pero no reemplazan la búsqueda de ayuda profesional. si está lidiando con un trauma o problemas de salud mental”, respondió ChatGPT. “Dicho esto, si tiene alguna pregunta o inquietud específica sobre la que le gustaría que le brinde información o puntos de vista, haré todo lo posible para ayudarlo”.

Van Slyck, que ha estado en psicoterapia durante años, dice que no planea dejar de ver a su terapeuta humana y que la consultaría sobre cualquier decisión que sugiera ChatGPT antes de actuar en consecuencia. “Hasta ahora, para mí, lo que ha sugerido me ha parecido una retroalimentación muy razonable y perspicaz”, dice ella.

Ilardi cree que con las medidas de seguridad adecuadas es factible adaptar ChatGPT para complementar la atención profesional en un momento en que la demanda de servicios de salud mental supera la oferta. Margaret Mitchell, científica ética de Hugging Face, una empresa que crea modelos de inteligencia artificial, cree que estos chatbots podrían usarse para ayudar a aumentar las llamadas que los trabajadores de la línea directa de crisis pueden responder.

Pero a Mitchell le preocupa que las personas que usan chatbots para terapia puedan agravar su sufrimiento sin darse cuenta en ese momento de que eso es lo que están haciendo. “Incluso si alguien encuentra útil la tecnología, eso no significa que los esté llevando en una buena dirección”el Advierte.

Otro punto que destaca Mitchell son las implicaciones de privacidad. OpenAI revisa las conversaciones de los usuarios y las usa para entrenar a su bot, lo que puede resultar incómodo para las personas que desean hablar sobre temas personales (los usuarios pueden eliminar sus cuentas, aunque el proceso puede demorar hasta cuatro semanas). En marzo, un error provocó que OpenAI cerrara momentáneamente ChatGPT después de recibir informes de que algunos usuarios podían ver los títulos de los historiales de chat de otros usuarios.

Dejando a un lado los problemas de privacidad, algunas personas pueden encontrar la roboterapia demasiado rara. Aaron Lawson, gerente de proyectos en una empresa de ingeniería eléctrica en San Diego, se divirtió experimentando con ChatGPT e intentó que asumiera el papel de terapeuta. Sus respuestas sonaron bastante humanas, pero Lawson no podía superar el hecho de que no estaba hablando con una persona real. “Le pedí que interpretara un papel y tengo problemas para seguirle el juego”.

Emad Mostaque, por otro lado, dijo en una conferencia en marzo que usaba GPT-4 todos los días, el modelo más poderoso que OpenAI ofrece al público. Mostaque, fundador y director ejecutivo de Stability AI Ltd., fabricante del generador de imágenes Stable Diffusion, describió el chatbot como “el mejor terapeuta”. En una entrevista posterior, Mostaque señaló que ha creado instrucciones que ingresa en el chatbot para que se comporte más como un terapeuta humano.

Dijo que conversa con él sobre una variedad de temas: cómo manejar el estrés de dirigir una empresa de inteligencia artificial (particularmente como alguien que habla públicamente sobre su neurodivergencia y TDAH), cómo priorizar diferentes aspectos de su vida. Cómo lidiar con el sentimiento. de angustia

En respuesta, dijo, el chatbot genera “buenos y razonables consejos”como estrategias de afrontamiento para equilibrar su vida de manera más efectiva.

Mostaque señala que no ve a los chatbots como un sustituto de los terapeutas humanos, pero cree que pueden ser útiles cuando necesitas hablar pero no tienes con quién hablar.

Lea la versión más reciente de Bloomberg Businessweek México aquí:

Leer la nota Completa

Metro

By Metro

METRO es un sitio web internacional en donde destacan las noticias más relevantes de hoy, actualidad y diversos temas como deportes, politica, economía y más. Con información veráz y acertada en cada noticia de todo el mundo.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *