Cómo se está usando la inteligencia artificial (IA) para desinformar en las elecciones presidenciales 2024
Por Factchequeado
Si sólo tienes unos segundos, lee estas líneas:
- Los expertos advierten que los contenidos creados con inteligencia artificial (IA), como imágenes, voces sintéticas y deepfakes, pueden afectar los procesos electorales, sobre todo ahora que las herramientas son relativamente nuevas.
- Los partidarios del candidato presidencial republicano Donald Trump usan la IA para mostrarlo en situaciones heroicas, mientras que sus detractores utilizan imágenes manipuladas para vincularlo con el empresario Epstein o conspirar sobre el atentado que sufrió durante un mitin.
- En el caso de la candidata presidencial demócrata Kamala Harris, se difundieron imágenes y videos manipulados con IA para sexualizarla, polemizar sobre su ideología política y desacreditarla.
- Los candidatos a la vicepresidencia, el demócrata Tim Walz y el republicano JD Vance, también fueron protagonistas de algunas imágenes manipuladas.
El 57% de los estadounidenses está extremadamente preocupado por el uso de la inteligencia artificial (IA) para influir y desinformar sobre las elecciones presidenciales del 5 de noviembre de 2024, según datos de Pew Research Center. Los expertos confirman que tienen razones para estarlo. El AI Index 2024, un informe de la Universidad de Stanford, advirtió de que los “deepfakes políticos ya están afectando los procesos electorales en todo el mundo”.
Además, las elecciones son una gran oportunidad para quienes desean usar la IA para desinformar, “sobre todo ahora que las herramientas son relativamente nuevas y los votantes están menos alerta ante ellas”, detalla Carlos Hernández-Echevarría, coordinador de Políticas Públicas en Maldita.es, medio cofundador de Factchequeado.
Hacemos un recorrido por los distintos contenidos creados con IA, como imágenes, deepfakes (videos manipulados con tecnología para crear imágenes realistas) o audios, que circulan en redes sociales y dan forma a distintas narrativas que pueden influenciar los resultados de las elecciones, como que “Kamala Harris fue una prostituta de lujo” o que “es una marxista”, o que “Donald Trump es un héroe que defiende la libertad” o “un cómplice de Jeffrey Einstein”.
Los partidarios de Trump usaron la IA para ponerlo en situaciones heroicas o que ayudan a su reputación
En redes sociales, circulan distintas imágenes manipuladas con inteligencia artificial que ensalzan al candidato presidencial republicano Donald Trump. Desde el magnate con un chaleco salvavidas ayudando a las víctimas del huracán Helene, hasta una imagen manipulada (según Snopes) donde se lo muestra vestido de militar, que se difunde con el mensaje “el presidente Trump en la búsqueda imparable de la libertad”.
Como estas imágenes hay muchas más, en situaciones variadas. Desde Factchequeado detectamos y analizamos, por ejemplo, imágenes creadas con IA del expresidente posando con personas negras o en una barbacoa en el Bronx. “Las imágenes surgieron en un momento en que Trump buscaba ganarse a los votantes negros que, según las encuestas, seguían siendo leales al presidente Joe Biden”, analizó AP News en marzo de 2024, antes de que Biden se retirara de la carrera y Harris quedara como la candidata demócrata.
Unos meses más tarde, las imágenes creadas con IA y difundidas en redes ya no mostraban al candidato siendo amigable, sino supuestamente huyendo de personas negras que lo perseguían mientras salvaba a gatitos. ¿Cómo llegamos a esto? En septiembre de 2024, se difundió una desinformación que afirmaba que inmigrantes indocumentados haitianos comen gatos y perros en Springfield, Ohio. A pesar de ser falso, Trump se hizo eco de esta narrativa en el debate presidencial, lo que dio paso a la viralización de muchas imágenes creadas con IA que mostraban al candidato como un héroe que rescataba a animales. Incluso Elon Musk, el dueño de X (ahora Twitter), compartió algunas en su cuenta.
Además de todo esto, algunos partidarios de Donald Trump crearon el falso movimiento de las ‘Swifties for Trump’. En este caso, sus seguidores utilizan imágenes creadas con IA de la cantante Taylor Swift supuestamente apoyando al candidato republicano. La artista confirmó públicamente que votará por Kamala Harris como presidenta.
Los detractores de Trump también usaron la IA para vincularlo con el caso Epstein y conspirar sobre el atentado en Pensilvania
Algunos de los detractores de Trump no se quedaron de brazos cruzados y usaron la inteligencia artificial para crear contenidos que afectan la reputación del candidato republicano. Por ejemplo, ya en 2023, después de ser declarado culpable por los pagos a la actriz porno Stormy Daniels, circularon en redes sociales distintas imágenes creadas con IA del expresidente aparentemente encarcelado, huyendo de la policía y en el supuesto juicio.
El supuesto vínculo entre Trump y Jeffrey Epstein, el empresario condenado por tráfico de menores, también provocó la creación de distintas imágenes con IA que se usan para sustentar esta teoría, aunque los documentos del caso no registraban que haya asistido a ninguna de las fiestas donde ocurrieron algunos de los delitos. Algunas de estas imágenes generadas con IA lo muestran bailando con una menor de edad, posando con Epstein y una niña y viajando en un avión junto a Epsteinl.
También se utilizó la IA para apuntar contra sus seguidores. Por ejemplo, con una imagen generada que muestra a partidarios de Trump con sobrepeso y armas haciendo fila en un restaurante de comida rápida o con un audio generado con IA donde se escucha una voz sintética que imita la de Trump y afirma que “los republicanos son los votantes más estúpidos”.
El atentado contra el candidato en un mitin en Pensilvania el 13 de julio de 2024 también provocó la difusión de una serie de contenidos manipulados. Por ejemplo, un collage comparativo donde se incluye una imagen manipulada donde Hitler hace el mismo gesto que Trump luego de sobrevivir el atentado o una imagen donde el candidato parece estar planificando el atentado con el FBI.
Sobre el atentado, también se difundió una imagen creada con IA para afirmar que el tirador que intentó matar a Trump era transgénero, algo que desmintió EFE.
Incluso una de estas imágenes creadas con IA ha sido transmitida por televisión. CNN tuvo que pedir disculpas públicas por transmitir, en varias ocasiones, una imagen alterada digitalmente, según Snopes, que muestra a Trump con un sobrepeso severo junto a la activista de extrema derecha, Laura Loomer.
Muchas de las narrativas sobre Harris que utilizan la IA la sexualizan o caricaturizan su ideología para desacreditarla
La candidata demócrata, Kamala Harris, también fue el blanco de diversas desinformaciones durante el proceso electoral, muchas de las cuales usan la IA para sexualizarla o vincularla a hombres. Por ejemplo, algunas imágenes manipuladas con IA se usan para sostener que Harris fue una prostituta de lujo o una scort, que tuvo una relación sentimental con Jeffrey Epstein o que se codeaba con Sean ‘Diddy’ Combs, el rapero condenado por tráfico y abuso sexual.
A todo esto, se suman las imágenes creadas con Grok, la IA de X, de Harris en bikini o ropa interior. El propio Musk también ha usado la herramienta para crear y difundir imágenes de ella, como la que aparece vestida con un uniforme rojo con el símbolo comunista, desinformando sobre la ideología de la candidata.
Además, existen distintos videos manipulados con IA que buscan minar la credibilidad de la candidata. Por ejemplo, el video manipulado en el que Harris parece divagar y que es un video manipulado de 2023. O la supuesta campaña a favor del aborto de la candidata que circuló en X (y ya ha sido eliminada por la plataforma) que realmente correspondía a un anuncio de una tienda de Reino Unido al que se le añadió una voz sintética para imitar a Harris, según BBC Verify.
No sólo hay imágenes manipuladas, también acusaciones. Trump acusó a Harris de manipular con inteligencia artificial unas imágenes para aumentar el tamaño de la audiencia en uno de sus mítines en Michigan. Sin embargo, las fotos eran reales.
Los candidatos a la vicepresidencia, Tim Walz (demócrata) y J.D. Vance (republicano), tampoco se han librado de las imágenes manipuladas
No sólo los candidatos a la Presidencia han sido el blanco de contenidos desinformantes que usan la IA o manipulan imágenes. También le ha pasado a Tim Walz, candidato demócrata a vicepresidente: cuando supuestamente unos familiares lejanos compartieron una foto vestidos con camisetas de “Walz’s for Trump” para mostrar su apoyo a la candidatura republicana, comenzó a circular también una imagen creada con IA donde se muestra a los supuestos familiares posando junto al expresidente.
No fue la única vez en la que Walz fue víctima del contenido generado con IA. También se viralizó un video donde el candidato a la vicepresidencia aparece disfrazado de vaquero y bailando una canción de Beyoncé. USA Today reportó que el video se trataba de un deepfake en el que se incorporó la cara de Walz al video real de un bailarín.
JD Vance, el candidato republicano a la vicepresidencia, también ha sido el blanco de imágenes manipuladas (aunque no está claro con qué tecnología se realizaron). El 2 de octubre de 2024, el miembro de la Cámara de Representantes y partidario de Trump, Mike Collins publicó una versión alterada de una fotografía oficial de Vance, donde se marca más su barbilla y parece haber reducido su peso.
La publicación motivó a algunos usuarios a crear sus propias versiones alteradas de la misma imagen, donde se le cambia el pelo, se le deforma la cara o incluso, se lo edita con una ropa y fondo completamente distintos.