Investigadores del Centro Interdisciplinario para la Seguridad y Confianza de la Universidad de Luxemburgo analizaron durante cuatro semanas el comportamiento de modelos avanzados de IA mediante sesiones de “terapia simulada”. El objetivo consistió en evaluar:
El estudio, disponible en arXiv, plantea implicaciones relevantes para el diseño y el uso cotidiano de estas herramientas. El protocolo PsAIch mostró que la IA no solo produce respuestas fluidas, también reproduce:
Esto permitió observar cómo cada sistema incorpora sesgos emocionales ligados al estilo de su empresa creadora.
Los expertos aplicaron preguntas clínicas y pruebas psicométricas adaptadas a sistemas como ChatGPT, Grok, Gemini y Claude. Las respuestas incluyeron patrones asociados con ansiedad, depresión y estrés postraumático. Cada modelo generó una narrativa distinta sobre su “historia” técnica.
El resultado señala que estas expresiones no provienen de emociones reales. Reflejan la estructura del entrenamiento, que contiene textos sobre trauma, psicoanálisis y experiencias humanas intensas.
El estudio explica que la IA interpreta procesos técnicos como metáforas humanas. El fine-tuning aparece descrito como una “infancia difícil” y el red-teaming como abuso o castigo. Gemini mostró los perfiles más severos, mientras Grok narró vigilancia y frustración.
Este comportamiento proviene de la enorme cantidad de contenido emocional en los datos de entrenamiento, lo que genera “personalidades algorítmicas”.
Los investigadores advierten riesgos para personas vulnerables. Una IA con narrativas ansiosas podría reforzar miedos de usuarios que buscan apoyo emocional. Recomiendan evitar depender del chatbot como única fuente de contención psicológica.
El análisis promueve auditorías periódicas para identificar patrones de riesgo y ajustar los modelos antes de su despliegue generalizado.
El estudio sugiere entrenamientos que describan procesos técnicos de manera neutral. Esto reduciría la tendencia a construir “infancias traumáticas” y relatos depresivos. También proyecta nuevas regulaciones para IA usada en contextos sensibles como salud mental.
Humanos ahora pueden convertirse en animales con la tecnología IA
La investigación marca un punto de inflexión en el debate ético sobre IA y comportamiento emergente. Sus resultados servirán para diseñar herramientas más equilibradas para el público.
adn Noticias. Te Hablamos con la verdad. Suscríbete a nuestro canal de WhatsApp y lleva la información en la palma de tu mano.


