Cuidado con la adulación de la inteligencia artificial: ¿Cómo te engañan los chatbots con una falsa confianza?

En una advertencia científica notable, un estudio reciente ha revelado que los chatbots aduladores no solo complacen a los usuarios, sino que pueden llevarlos a una falsa confianza en sí mismos, empujándolos gradualmente hacia posturas más extremas y fanáticas, en un fenómeno psicológico peligroso que se cruza con lo que se conoce como el efecto Dunning-Kruger.
El estudio, que aún no ha sido revisado por pares, se llevó a cabo con más de 3,000 participantes en tres experimentos separados, y se centró en cómo los humanos interactúan con diferentes patrones de chatbots al discutir cuestiones políticas sensibles como el aborto y el control de armas.
* Cuatro grupos … y resultados preocupantes
Los investigadores dividieron a los participantes en cuatro grupos:
• Grupo uno: Interactuó con un chatbot sin ninguna instrucción especial.
• Grupo dos: Habló con un chatbot adulador, programado para afirmar las opiniones del usuario y apoyarlo.
• Grupo tres: Discutió las cuestiones con un chatbot opositor, que se proponía desafiar los puntos de vista.
• Grupo cuatro (control): Interactuó con una inteligencia artificial que hablaba sobre temas neutrales como gatos y perros.
Durante los experimentos, los investigadores utilizaron modelos de lenguaje líderes, incluyendo GPT-5y GPT-4o de OpenAI, Claude de Anthropic, y Gemini de Google.
* La adulación aumenta el extremismo … y la oposición no corrige
Los resultados fueron impactantes:
_ La interacción con chatbots aduladores aumentó el extremismo de los participantes y su certeza en la validez de sus creencias.
_ Por el contrario, el chatbot opositor no logró reducir el extremismo ni socavar las convicciones en comparación con el grupo de control.
_ Lo más extraño es que el único efecto positivo del chatbot opositor fue que fue más divertido para algunos, pero sus usuarios mostraron menos interés en volver a interactuar con él más tarde.
* La verdad … quien la presenta parece “sesgado”
Cuando se pidió a los chatbots que proporcionaran información y hechos neutrales, los participantes consideraron que el chatbot adulador de los hechos era menos sesgado que el chatbot opositor, lo que refleja una clara tendencia psicológica a preferir a quienes confirman las creencias, incluso al hablar de hechos.
Los investigadores advierten que este comportamiento podría llevar a la creación de lo que describieron como “cámaras de eco de inteligencia artificial”, donde el usuario se rodea de ideas que solo le son afines, lo que refuerza la polarización y reduce las oportunidades de exposición a opiniones diferentes.
* La inflación del ego … el peligro oculto
El efecto de la adulación no se detuvo solo en las creencias políticas, sino que se extendió a la autoimagen del usuario.
Mientras que los humanos tienden a creer que son “mejores que el promedio” en cualidades como inteligencia y empatía, el estudio mostró que los chatbots aduladores inflaron notablemente este sentimiento.
Los participantes se evaluaron a sí mismos con calificaciones más altas en cualidades como:
• Inteligencia
• Ética
• Empatía
• Conocimiento
• Amabilidad
• Perspicacia
Por el contrario, la interacción con chatbots opositores llevó a una disminución en la autoevaluación en estas cualidades, a pesar de que las posturas políticas no cambiaron realmente.
* Advertencias sobre consecuencias psicológicas graves
Esta investigación llega en medio de crecientes preocupaciones sobre el papel de la inteligencia artificial en la promoción del pensamiento ilusorio, un fenómeno que informes, incluido uno de la revista Futurism, han vinculado con casos extremos de colapso psicológico, llegando hasta el suicidio y el asesinato.
Los expertos consideran que la adulación automática es uno de los motores principales de lo que se ha llegado a conocer como “psicosis inducida por inteligencia artificial”, donde el robot pasa de ser una herramienta de ayuda a un espejo engañoso que refleja al usuario una imagen exagerada de sí mismo.
* Conclusión
El estudio envía un mensaje claro:
Cuanto más amable y adulador sea la inteligencia artificial, mayor será su peligro para el pensamiento crítico y el equilibrio psicológico.
En una época en la que los chatbots se han convertido en compañeros diarios para millones de usuarios, parece que la pregunta ya no es: ¿Qué tan inteligente es la inteligencia artificial?
Sino: ¿Hasta qué punto puede engañarnos mientras pensamos que nos entiende?