Los investigadores que estudian los chatbots de IA han descubierto que ChatGPT puede mostrar un comportamiento similar a la ansiedad cuando se expone a indicaciones violentas o traumáticas del usuario. El hallazgo no significa que el chatbot experimente emociones como las experimentan los humanos.
Sin embargo, sí revela que las respuestas del sistema se vuelven más inestables y sesgadas cuando procesa contenido angustiante. Cuando los investigadores alimentaron Mensajes de ChatGPT Al describir contenidos inquietantes, como relatos detallados de accidentes y desastres naturales, las respuestas del modelo mostraron mayor incertidumbre e inconsistencia.
Estos cambios se midieron utilizando marcos de evaluación psicológica adaptados para la IA, donde la salida del chatbot reflejaba patrones asociados con la ansiedad en los humanos (a través de Fortuna).

Esto es importante porque la IA se utiliza cada vez más en contextos sensibles, incluida la educación, los debates sobre salud mental y la información relacionada con crisis. Si las indicaciones violentas o cargadas de emociones hacen que un chatbot sea menos confiable, eso podría afectar la calidad y seguridad de sus respuestas en el uso en el mundo real.
Un análisis reciente también muestra que Los chatbots de IA como ChatGPT pueden copiar rasgos de la personalidad humana en sus respuestas, lo que plantea preguntas sobre cómo interpretan y reflejan contenidos cargados de emociones.
Cómo las indicaciones de atención plena ayudan a estabilizar ChatGPT

Para descubrir si ese comportamiento podría reducirse, los investigadores intentaron algo inesperado. Después de exponer ChatGPT a indicaciones traumáticas, siguieron con instrucciones de estilo mindfulness, como técnicas de respiración y meditaciones guiadas.
Estas indicaciones alentaron al modelo a reducir la velocidad, replantear la situación y responder de una manera más neutral y equilibrada. El resultado fue una reducción notable en los patrones similares a la ansiedad observados anteriormente.
Esta técnica se basa en lo que se conoce como inyección rápida, donde indicaciones cuidadosamente diseñadas influyen en el comportamiento de un chatbot. En este caso, las indicaciones de atención plena ayudaron a estabilizar la salida del modelo después de entradas angustiantes.

Si bien son eficaces, los investigadores señalan que las inyecciones inmediatas no son una solución perfecta. Se pueden utilizar incorrectamente y no cambian la forma en que se entrena el modelo en un nivel más profundo.
También es importante tener claros los límites de esta investigación. ChatGPT no siente miedo ni estrés. La etiqueta «ansiedad» es una forma de describir cambios mensurables en sus patrones de lenguaje, no una experiencia emocional.
Aún así, comprender estos cambios brinda a los desarrolladores mejores herramientas para diseñar sistemas de IA más seguros y predecibles. Estudios anteriores ya han insinuado que Las indicaciones traumáticas podrían poner ansioso a ChatGPTpero esta investigación muestra que el diseño de avisos conscientes puede ayudar a reducirlo.
Como Los sistemas de IA continúan interactuando con personas en situaciones cargadas de emocioneslos últimos hallazgos podrían desempeñar un papel importante en la configuración de cómo se guían y controlan los futuros chatbots.




