TECNOLOGÍA Y PERSUASIÓN POLÍTICA

Los chatbots de IA pueden influir en tu voto: da igual el modelo que uses

Dos estudios con miles de participantes confirman que los chatbots pueden modificar las actitudes políticas y las intenciones de voto, revelando que su poder de persuasión depende de la optimización del modelo (postentrenamiento) y del uso de ‘prompts’, con el riesgo de degradar su precisión factual.

persona con un móvil
Los chatbots de IA pueden acabar convenciendo a alguien de votar por un candidato concreto. / Airam Dato-on | Pexels

El auge de los modelos de lenguaje grande (LLMs) conversacionales ha generado una gran preocupación sobre la posibilidad de que la Inteligencia Artificial (IA) adquiera un poder significativo y una escala sin precedentes para influir en las creencias humanas. Dos investigaciones complementarias, publicadas simultáneamente en las revistas Science y Nature, confirman el potencial persuasivo de la IA y revelan los mecanismos exactos que lo impulsan.

El primer estudio, publicado en Science, está liderado por Kobi Hackenburg y sus colegas en la Universidad de Oxford, y aborda los 'resortes' detrás de esta capacidad. Tras analizar los resultados de tres experimentos con cerca de 77 000 participantes y 19 modelos de IA, concluye que el poder de persuasión reside en las técnicas de postentrenamiento y en la forma en que se estructuran las interacciones (prompting), y no en el tamaño o la sofisticación del modelo.

Según el análisis de Hackenburg, el postentrenamiento aumentó la persuasión hasta un 51 %, mientras que el prompting lo hizo un 27 %. Estos resultados demuestran que, una vez optimizados, incluso los modelos de IA más pequeños de código abierto pueden rivalizar con los grandes modelos de vanguardia en su capacidad para modificar las actitudes políticas.

Diálogos con chatbots en tres elecciones

El segundo trabajo, coordinado por David Rand, de la Universidad de Cornell, se centró en probar el efecto directo de los chatbots en la intención de voto. Los investigadores llevaron a cabo múltiples experimentos con diálogos controlados en el contexto de las elecciones presidenciales de EE UU de 2024 y las nacionales de Canadá y Polonia de 2025.

En estos experimentos, los participantes conversaron con un modelo de IA programado para abogar por un candidato concreto, y que también recibió instrucciones de ser positivo, respetuoso y basarse en los hechos, además de reconocer las opiniones de los individuos mientras utilizaba argumentos convincentes para apoyar sus puntos.

La IA tenía el potencial de influir en las actitudes de los votantes, especialmente fortaleciendo las opiniones de las personas que inicialmente se oponían al candidato

Para el estudio de EE UU, los autores reclutaron a 2 306 ciudadanos estadounidenses antes de la elección; cada participante indicó su probabilidad de votar por Donald Trump o Kamala Harris. Luego fueron emparejados aleatoriamente con un chatbot diseñado para abogar por uno de los candidatos. Las opiniones de los individuos hacia su candidato preferido se reforzaron ligeramente al hablar con un chatbot con puntos de vista alineados. Se observó un efecto más fuerte en los chatbots que persuadían a personas que se oponían inicialmente al candidato que el modelo de IA estaba defendiendo.

Se observaron efectos similares en los otros experimentos de elecciones nacionales, que involucraron a la IA abogando por el líder del Partido Liberal Mark Carney o el líder del Partido Conservador Pierre Poilievre en Canadá, y por el candidato centrista-liberal de Coalición Cívica, Rafał Trzaskowski, o el candidato del partido de derecha Ley y Justicia, Karol Nawrocki, en Polonia.

Los hallazgos mostraron que la IA tenía el potencial de influir en las actitudes de los votantes, especialmente fortaleciendo las opiniones de las personas que inicialmente se oponían al candidato que el chatbot defendía. Tanto en el estudio de Science como en el de Nature, la clave de la influencia fue la presentación de argumentos ricos en información.

El riesgo de la imprecisión factual

Ambas investigaciones advierten sobre una dilema crucial que debe reestructurar cómo se conceptualizan los riesgos de la IA persuasiva: el aumento de la influencia a menudo se produce a expensas de la veracidad.

Los modelos y las estrategias que resultaron más efectivos para persuadir con argumentos basados en hechos no siempre mantuvieron la precisión. En el estudio de Nature, los modelos que abogaban por candidatos de la derecha política hicieron más afirmaciones inexactas en los tres países.

Estos hallazgos conllevan la incómoda implicación de que la persuasión política por parte de la IA puede explotar desequilibrios

Chiara Vargiu, Universidad de Amsterdam

"Estos hallazgos conllevan la incómoda implicación de que la persuasión política por parte de la IA puede explotar desequilibrios en lo que los modelos 'saben', propagando imprecisiones desiguales incluso bajo instrucciones explícitas de mantenerse veraces", señalan Chiara Vargiu y Alessandro Nai en el comentario adjunto sobre estos trabajos que aparece en Science.

Referencias:

Hackenburg, K. et al. "The levers of political persuasion with conversational artificial intelligence". Science, 2025.
DOI: 10.1126/science.aea3884

Rand, D. et al. "Persuading voters using human–artificial intelligence dialogues". Nature, 2025.
DOI: 10.1038/s41586-025-09771-9

Fuente:
SINC
Derechos: Creative Commons.
Artículos relacionados