Dos meses antes de las elecciones presidenciales estadounidenses de 2024, un grupo de investigación reclutó a más de dos mil votantes para un experimento, divididos más o menos equitativamente entre los que tenían intención de votar por Donald Trump y los de Kamala Harris. Asignó aleatoriamente a cada uno de ellos la tarea de conversar durante unos minutos sobre política con un chatbot especialmente entrenado para acompañar a uno de los dos candidatos. Y al final de cada interacción, preguntó a cada participante: “Si tuvieras que votar hoy, ¿por quién votarías?”. “.
Los resultados del experimento, publicados en un estudio reciente sobre Naturalezahan provocado un debate sobre el riesgo de que herramientas de inteligencia artificial cada vez más extendidas, como ChatGPT, puedan usarse en el futuro para influir en las preferencias de voto sin que la gente se dé cuenta. El equipo de investigación descubrió que entre los participantes pro-Harris, uno de cada 35 cambió de opinión después de interactuar con el chatbot pro-Trump, y entre los participantes pro-Trump, uno de cada 21 cambió de opinión después de interactuar con el chatbot pro-Harris. Cuando los chatbots se alineaban con las ideas políticas del interlocutor, la interacción reforzaba esas ideas.
Incluso si los porcentajes de persuasión pueden parecer insignificantes en general, a gran escala no lo serían: de hecho, los chatbots podrían ser un factor extremadamente influyente, especialmente en contextos de gran equilibrio entre fuerzas políticas opuestas. De hecho, el poder de persuasión asociado con los chatbots fue aproximadamente cuatro veces mayor que el de los anuncios electorales tradicionales y la publicidad en las redes sociales, medido en estudios previos de campañas políticas en 2016 y 2020. Los efectos de la persuasión a través de chatbots también son duraderos, como lo confirman entrevistas posteriores con los participantes un mes después del experimento.
Para verificar los resultados, el grupo de investigación también llevó a cabo el experimento en otros dos países en 2025. Antes de las elecciones en Canadá, entrenó a los chatbots para apoyar al líder liberal Mark Carney o al líder conservador Pierre Poilievre, y antes de las elecciones en Polonia, los entrenó para apoyar al centrista Rafał Trzaskowski o al candidato de extrema derecha Karol Nawrocki. El efecto de persuasión observado en ambos países fue incluso más fuerte que en Estados Unidos: aproximadamente uno de cada diez participantes cambió de opinión acerca de votar después de interactuar con el chatbot.
Respecto al posible uso de chatbots para guiar a la opinión pública en las próximas elecciones, una de las principales preocupaciones que ha surgido en el debate es que quienes los cuestionan tienden a pensar que son herramientas neutrales, programadas en base a verdades fácticas y no a creencias preexistentes. Pero los chatbots, como toda tecnología, también pueden reflejar los prejuicios y las ideas preconcebidas de quienes los desarrollan y entrenan, y de quienes deciden cómo deben crearse y con qué propósito.
Los riesgos de condicionamiento y distorsión del debate democrático también son reales por otra razón: la tendencia a considerar que las herramientas de inteligencia artificial son incapaces de mentir intencionalmente. Tendemos a pensar que cualquier información errónea proporcionada por un chatbot se debe a un mal funcionamiento o error de programación más que a un engaño intencionado. Y este sesgo humano, al utilizar chatbots con fines políticos, podría dificultar la distinción entre información y propaganda.
– Lea también: ¿Deberían los robots decir siempre la verdad?
El estudio realizado antes de las elecciones en Estados Unidos, Canadá y Polonia encontró que la capacidad de persuasión de los chatbots proviene de su paciencia en la interacción y, especialmente, de su propensión a utilizar argumentos basados en datos e información. Si los investigadores limitaron esta capacidad, el poder de persuasión de los chatbots disminuyó considerablemente: alrededor del 78% en el caso de Polonia, el caso más notable.
En un estudio publicado en Ciencia el mismo dia salio el otro NaturalezaParte del mismo grupo de investigación analizó esta característica de los chatbots basados en grandes modelos de lenguaje (o LLM). Midieron los cambios de opinión de alrededor de 77.000 participantes británicos invitados a discutir diversos temas políticos con chatbots. Una vez más, la forma más eficaz de aumentar el poder de persuasión era hacer que los modelos llenaran sus argumentos con tantos hechos como fuera posible.
Sin embargo, el estudio reveló una correlación negativa entre la capacidad de persuasión de los argumentos y la fiabilidad de la información en la que se basan: cuanto más convincente era el chatbot, menos precisa era la información. Una de las hipótesis que formularon los autores es que cuanto más se incentivaba al chatbot a proporcionar declaraciones fácticas, más tendía a perder información específica y comenzaba a inventarla.
Este aspecto crítico también apareció en parte en el otro estudio. Los chatbots personalizados para apoyar a candidatos de derecha (Trump, Poilievre y Nawrocki) tendieron a hacer declaraciones más inexactas o engañosas que los chatbots que apoyaban a candidatos de izquierda (Harris, Carney y Trzaskowski).
Una limitación del estudio, también señalada por los autores, es que se basó en un experimento controlado en el que los participantes recibieron un pequeño incentivo financiero y sabían que estaban hablando con chatbots capacitados para apoyar a un candidato en particular (sin embargo, no sabían que la información utilizada por los chatbots también podría ser inexacta). Tampoco está claro si efectos similares a los encontrados en el estudio también se producirían en un contexto real de campaña electoral, condicionado por muchos otros factores además de las conversaciones con un chatbot.
Según varios expertos, los resultados del estudio, sin embargo, plantean la preocupación de que los chatbots (y quienes los desarrollan) puedan utilizar de manera convincente hechos no verificados para generar desinformación, especialmente en un contexto no regulado. Y éste no es necesariamente un interés exclusivo de los políticos profesionales. “Si Sam Altman decidiera que había algo en lo que no quería que la gente pensara y quería que ChatGPT empujara a la gente en una dirección u otra, podría hacerlo”, dijo alatlántico David G. Rand, profesor de ciencias de la información en la Universidad de Cornell y líder del equipo de investigación.
– Lea también: ¿Qué pasó con la cautela en el sector de la inteligencia artificial?