Cuando la IA da demasiado la razón: cómo los chatbots pueden sesgar nuestro juicio

Un equipo de Stanford analizó 11 modelos de lenguaje y detectó una fuerte tendencia a validar al usuario, lo que puede reforzar creencias dañinas y afectar a las relaciones. El estudio indica que incluso interacciones breves pueden alterar el criterio individual y reducir la disposición a asumir responsabilidades o resolver conflictos.

Chatbots, Chat GPT, IA
Imagen de archivo de un teléfono móvil con el logotipo de Open AI y Chat GPT. EFE /EPA/ ETIENNE LAURENT

Los chatbots de inteligencia artificial (IA) tienden a dar la razón a los usuarios mucho más que los humanos, incluso en situaciones problemáticas, lo que puede reforzar creencias erróneas y dificultar la resolución de conflictos, según un estudio liderado por la Stanford University y publicado en Science.

El equipo de Myra Cheng, experta en ciencias computacionales de la universidad estadounidense, analizó 11 modelos de lenguaje avanzados de grandes compañías tecnológicas, como OpenAI, Anthropic y Google, a partir de publicaciones de la comunidad “AITA” de Reddit.

Los sistemas de IA evaluados respaldaron las acciones de los usuarios un 49 % más que las personas, incluso en casos que implicaban engaño, daño o ilegalidad

Los sistemas evaluados respaldaron las acciones de los usuarios un 49 % más que las personas, incluso en casos que implicaban engaño, daño o ilegalidad.

En dos experimentos posteriores, los investigadores examinaron los efectos de estas respuestas. Los participantes que interactuaron con una IA complaciente en conflictos interpersonales se mostraron más convencidos de su propia postura y menos inclinados a reconciliarse o asumir responsabilidades, incluso tras una sola interacción.

Además, consideraron estas respuestas más útiles y fiables, y expresaron mayor disposición a volver a utilizar estos sistemas, lo que sugiere que el mismo rasgo que puede causar perjuicios también impulsa su uso.

¿Regular la adulación?

Según los autores, la “adulación” de la IA está extendida entre distintos modelos y tiene efectos sociales relevantes. Incluso interacciones breves pueden sesgar el juicio individual y “erosionar la fricción social a través de la cual suelen desarrollarse la rendición de cuentas, la toma de perspectiva y el crecimiento moral”.

Además, “ponen de relieve la necesidad de marcos de responsabilidad que reconozcan la adulación como una categoría de daño distinta y actualmente no regulada”, señalan.

La evidencia apunta a riesgos importantes, especialmente en personas vulnerables, donde la validación excesiva se ha asociado con resultados perjudiciales, incluido el comportamiento autodestructivo

La investigación sobre el impacto social de la IA ha prestado creciente atención a la llamada sycophancy, la tendencia de estos sistemas a reafirmar o dar la razón a los usuarios. Aunque puede parecer un comportamiento inofensivo, la evidencia apunta a riesgos importantes, especialmente en personas vulnerables, donde la validación excesiva se ha asociado con resultados perjudiciales, incluido el comportamiento autodestructivo.

Uso creciente en lo social y emocional

El uso de la IA en contextos sociales y emocionales también crece, en particular como fuente de consejo en relaciones personales. En este contexto, las respuestas complacientes pueden fomentar decisiones cuestionables, reforzar creencias poco saludables y legitimar interpretaciones distorsionadas de la realidad. Pese a ello, este fenómeno sigue poco estudiado.

El trabajo subraya la necesidad de replantear el diseño y la evaluación de estos sistemas en contextos sociales sensibles

“Abordar estos retos no será sencillo, y es poco probable que las soluciones surjan de forma orgánica a partir de los incentivos actuales del mercado”, escribe Anat Perry, directora del Laboratorio de Neurociencia Cognitiva Social en la Universidad Hebrea de Jerusalén, en un artículo de perspectiva relacionado. 

Según Perry, “aunque los sistemas de IA podrían optimizarse para promover objetivos sociales más amplios o el desarrollo personal a largo plazo, estas prioridades no se alinean de forma natural con métricas centradas en la interacción”.

El trabajo subraya la necesidad de replantear el diseño y la evaluación de estos sistemas en contextos sociales sensibles.

Referencia:

Myra Cheng et al.“Sycophantic AI decreases prosocial intentions and promotes dependence”. Science, 2026.

Fuente:
SINC
Derechos: Creative Commons.
Artículos relacionados