Cómo Rusia, China e Irán están interfiriendo en las elecciones presidenciales

HomeInternacional

Cómo Rusia, China e Irán están interfiriendo en las elecciones presidenciales

  Cuando Rusia interfirió en las elecciones presidenciales estadounidenses de 2016, difundiendo mensajes divisivos e incendiarios en Internet pa

El Ejército de Israel realiza operaciones en los principales hospitales de Khan Younis, el bastión terrorista de Hamas.
El rey Carlos III fue diagnosticado con cáncer.
¿Quién era San Valentín? Esta es la retorcida historia del origen de esta celebración.

 

Cuando Rusia interfirió en las elecciones presidenciales estadounidenses de 2016, difundiendo mensajes divisivos e incendiarios en Internet para avivar la indignación, sus mensajes eran descarados y estaban plagados de errores ortográficos y sintaxis extraña. Estaban diseñados para llamar la atención por cualquier medio necesario.

“Hillary es Satanás”, rezaba un mensaje ruso en Facebook.

Ahora, ocho años después, la injerencia extranjera en las elecciones estadounidenses es mucho más sofisticada y difícil de rastrear.

La desinformación procedente del extranjero -especialmente de Rusia, China e Irán- ha madurado hasta convertirse en una amenaza constante y perniciosa, a medida que los países prueban, repiten y despliegan tácticas cada vez más matizadas, según funcionarios de inteligencia y defensa estadounidenses, empresas tecnológicas e investigadores académicos.

La capacidad de influir incluso en un pequeño grupo de estadounidenses podría tener enormes consecuencias para las elecciones presidenciales, que las encuestas suelen considerar una carrera a la par.

Rusia, según las evaluaciones de los servicios de inteligencia estadounidenses, pretende reforzar la candidatura del ex presidente Donald J. Trump, mientras que Irán favorece a su oponente, la vicepresidenta Kamala Harris. China no parece tener un resultado preferido.

Vladimir Putin y el entonces presidente de EEUU Donald Trump. Rusia, según las evaluaciones de los servicios de inteligencia estadounidenses, pretende reforzar la candidatura del ex presidente, mientras que Irán favorece a su oponente, la vicepresidenta Kamala Harris (Sputnik/Mikhail Klimentyev/Kremlin via REUTERS)Vladimir Putin y el entonces presidente de EEUU Donald Trump. Rusia, según las evaluaciones de los servicios de inteligencia estadounidenses, pretende reforzar la candidatura del ex presidente, mientras que Irán favorece a su oponente, la vicepresidenta Kamala Harris (Sputnik/Mikhail Klimentyev/Kremlin via REUTERS)

Pero el objetivo general de estos esfuerzos no ha cambiado: sembrar la discordia y el caos con la esperanza de desacreditar la democracia estadounidense a los ojos del mundo. Las campañas, sin embargo, han evolucionado, adaptándose a un panorama mediático cambiante y a la proliferación de nuevas herramientas que facilitan engañar a audiencias crédulas.

He aquí las formas en que ha evolucionado la desinformación extranjera:

Ahora, la desinformación está básicamente en todas partes.

Rusia fue el principal artífice de la desinformación relacionada con las elecciones estadounidenses de 2016, y sus publicaciones se difundieron principalmente en Facebook.

Ahora, Irán y China están participando en esfuerzos similares para influir en la política estadounidense, y los tres están dispersando sus esfuerzos a través de docenas de plataformas, desde pequeños foros donde los estadounidenses charlan sobre el clima local hasta grupos de mensajería unidos por intereses compartidos. Los países se siguen mutuamente, aunque se debate si han cooperado directamente en sus estrategias.

Hay hordas de cuentas rusas en Telegram que difunden vídeos, memes y artículos divisivos y a veces virulentos sobre las elecciones presidenciales. Hay al menos cientos más de cuentas chinas que imitaron a estudiantes para avivar las tensiones en los campus estadounidenses este verano por la guerra de Gaza.

Ambos países también tienen cuentas en Gab, una plataforma de redes sociales menos prominente y preferida por la extrema derecha, donde han trabajado para promover teorías conspirativas.

El presidente ruso Vladimir Putin, el líder supremo iraní Alí Khamenei y el presidente chino Xi Jinping.  Los países se siguen mutuamente, aunque se debate si han cooperado directamente en sus estrategias.El presidente ruso Vladimir Putin, el líder supremo iraní Alí Khamenei y el presidente chino Xi Jinping. Los países se siguen mutuamente, aunque se debate si han cooperado directamente en sus estrategias.

Los agentes rusos también han intentado apoyar a Trump en Reddit y en foros de extrema derecha, dirigiéndose a votantes de seis estados indecisos, hispanoamericanos, videojugadores y otras personas identificadas por Rusia como posibles simpatizantes de Trump, según documentos internos revelados en septiembre por el Departamento de Justicia.

Una campaña vinculada a la operación de influencia estatal de China, conocida como Spamouflage, operaba cuentas utilizando un nombre, Harlan, para crear la impresión de que la fuente del contenido de tendencia conservadora era estadounidense, en cuatro plataformas: YouTube, X, Instagram y TikTok.

El contenido es mucho más específico.

La nueva desinformación difundida por naciones extranjeras no sólo se dirige a los estados indecisos, sino también a distritos específicos dentro de ellos, y a grupos étnicos y religiosos concretos dentro de esos distritos. Cuanto más selectiva es la desinformación, más probabilidades tiene de arraigar, según los investigadores y académicos que han estudiado las nuevas campañas de influencia.

“Cuando la desinformación se diseña a medida para un público concreto, basándose en sus intereses u opiniones, resulta más eficaz”, afirma Melanie Smith, directora de investigación del Instituto para el Diálogo Estratégico, una organización de investigación con sede en Londres. “En elecciones anteriores, tratábamos de determinar cuál iba a ser la gran narrativa falsa. Esta vez, es la sutil mensajería polarizada la que acaricia la tensión”.

Irán, en particular, ha gastado sus recursos en crear esfuerzos encubiertos de desinformación para atraer a grupos especializados. Un sitio web titulado “Not Our War” (No es nuestra guerra), cuyo objetivo era atraer a veteranos del ejército estadounidense, intercalaba artículos sobre la falta de apoyo a los soldados en activo con opiniones virulentamente antiestadounidenses y teorías conspirativas.

Otros sitios eran “Afro Majority”, que creaba contenidos dirigidos a los negros estadounidenses, y “Savannah Time”, que trataba de influir en los votantes conservadores del estado indeciso de Georgia. En Michigan, otro estado indeciso, Irán creó un sitio web llamado “Westland Sun” para atraer a los árabes estadounidenses de los suburbios de Detroit.

“El hecho de que Irán se dirija a la población árabe y musulmana de Michigan demuestra que tiene un conocimiento matizado de la situación política de Estados Unidos y que está maniobrando hábilmente para atraer a un grupo demográfico clave con el fin de influir en las elecciones de forma selectiva”, declaró Max Lesser, analista de la Fundación para la Defensa de las Democracias.

Cientos de árabes estadounidenses se reúnen en un mitin de apoyo a Líbano tras recientes ataques israelíes frente a la biblioteca del Centenario de Henry Ford en Dearborn, Michigan (Katy Kildee/Detroit News vía AP)Cientos de árabes estadounidenses se reúnen en un mitin de apoyo a Líbano tras recientes ataques israelíes frente a la biblioteca del Centenario de Henry Ford en Dearborn, Michigan (Katy Kildee/Detroit News vía AP)

China y Rusia han seguido una pauta similar. En X de este año, los medios de comunicación estatales chinos difundieron falsas narrativas en español sobre el Tribunal Supremo, que los usuarios hispanohablantes de Facebook y YouTube difundieron aún más, según Logically, una organización que vigila la desinformación en Internet.

Expertos en desinformación china afirmaron que las cuentas no auténticas en redes sociales vinculadas a Beijing se habían vuelto más convincentes y atractivas y que ahora incluían referencias en primera persona a ser estadounidense o veterano militar.

En las últimas semanas, según un informe del Centro de Análisis de Amenazas de Microsoft, cuentas inauténticas vinculadas al Spamouflage chino atacaron a republicanos de la Cámara de Representantes y del Senado que aspiraban a la reelección en Alabama, Tennessee y Texas.

La inteligencia artificial está impulsando esta evolución.

Los recientes avances en inteligencia artificial han potenciado las capacidades de desinformación más allá de lo que era posible en elecciones anteriores, permitiendo a los agentes estatales crear y distribuir sus campañas con más finura y eficacia.

OpenAI, cuya herramienta ChatGPT popularizó la tecnología, informó este mes de que había desbaratado más de 20 operaciones extranjeras que habían utilizado los productos de la empresa entre junio y septiembre.

Entre ellas se encontraban iniciativas de Rusia, China, Irán y otros países para crear y llenar sitios web y difundir propaganda o desinformación en las redes sociales, e incluso analizar y responder a mensajes concretos.

(The New York Times demandó a OpenAI y Microsoft el año pasado por infracción de los derechos de autor de contenidos periodísticos; ambas empresas han negado las acusaciones).

“Las capacidades de la inteligencia artificial se están utilizando para exacerbar las amenazas que esperábamos y las que estamos viendo”, dijo en una entrevista Jen Easterly, directora de la Agencia de Ciberseguridad y Seguridad de las Infraestructuras. “Esencialmente están bajando el listón para que un actor extranjero lleve a cabo campañas de influencia más sofisticadas”.

La utilidad de las herramientas de inteligencia artificial disponibles en el mercado puede verse en los esfuerzos de John Mark Dougan, un ex ayudante del sheriff de Florida que ahora vive en Rusia tras huir de cargos penales en Estados Unidos.

Trabajando desde un apartamento en Moscú, ha creado decenas de sitios web haciéndose pasar por medios de noticias estadounidenses y los ha utilizado para publicar desinformación, haciendo en la práctica por sí mismo el trabajo que, hace ocho años, habría implicado un ejército de bots.

Los sitios de Dougan han difundido varias afirmaciones despectivas sobre Harris y su compañero de candidatura, el gobernador Tim Walz de Minnesota, según NewsGuard, una empresa que los ha rastreado en detalle.

Kamala Harris y Tim Walz en un mitín en Ann Arbor, Michigan (REUTERS/Shannon Stapleton)Kamala Harris y Tim Walz en un mitín en Ann Arbor, Michigan (REUTERS/Shannon Stapleton)

China también ha desplegado un kit de herramientas cada vez más avanzado que incluye archivos de audio manipulados por inteligencia artificial, memes dañinos y encuestas de votantes fabricadas en campañas de todo el mundo.

Este año circuló por TikTok un vídeo falso de un congresista republicano de Virginia, acompañado de un pie de foto chino que afirmaba falsamente que el político estaba pidiendo el voto para un crítico de Beijing que aspiraba (y más tarde ganó) la presidencia de Taiwán.

Cada vez es más difícil identificar la desinformación.

Los tres países también están mejorando a la hora de ocultar sus huellas.

El mes pasado, Rusia fue sorprendida ocultando sus intentos de influir en los estadounidenses respaldando en secreto a un grupo de comentaristas conservadores estadounidenses empleados a través de Tenet Media, una plataforma digital creada en Tennessee en 2023.

La empresa sirvió de fachada aparentemente legítima para publicar decenas de vídeos con punzantes comentarios políticos, así como teorías conspirativas sobre el fraude electoral, Covid-19, los inmigrantes y la guerra de Rusia con Ucrania. Incluso las personas influyentes a las que se pagó encubiertamente por sus apariciones en Tenet dijeron que no sabían que el dinero procedía de Rusia.

Al igual que Rusia, los agentes chinos han estado cultivando una red de personas influyentes extranjeras para ayudar a difundir sus mensajes, creando un grupo descrito como “bocas extranjeras”, “plumas extranjeras” y “cerebros extranjeros”, según un informe publicado el pasado otoño por el Instituto Australiano de Política Estratégica.

Según Graham Brookie, director del Laboratorio de Investigación Forense Digital del Atlantic Council, las nuevas tácticas han dificultado a las agencias gubernamentales y a las empresas tecnológicas la detección y eliminación de las campañas de influencia, al tiempo que han envalentonado a otros Estados hostiles.

“Cuando hay más actividad de influencia extranjera maligna, se crea más superficie, más permiso para que otros malos actores entren en ese espacio”, dijo. “Si todos lo hacen, el costo de la exposición no es tan alto”.

Las empresas tecnológicas no están haciendo tanto para detener la desinformación.

El fundador y CEO de Facebook Mark Zuckerberg. Los gigantes tecnológicos prácticamente han abandonado sus esfuerzos por combatir la desinformación. (REUTERS/Evelyn Hockstein/archivo)El fundador y CEO de Facebook Mark Zuckerberg. Los gigantes tecnológicos prácticamente han abandonado sus esfuerzos por combatir la desinformación. (REUTERS/Evelyn Hockstein/archivo)

La desinformación extranjera se ha disparado en un momento en que los gigantes tecnológicos prácticamente han abandonado sus esfuerzos por combatir la desinformación.

Las empresas más grandes, como Meta, Google, OpenAI y Microsoft, han reducido sus intentos de etiquetar y eliminar la desinformación desde las últimas elecciones presidenciales. Otras ni siquiera cuentan con equipos.

La falta de una política cohesionada entre las empresas tecnológicas ha hecho imposible formar un frente unido contra la desinformación extranjera, señalaron responsables de seguridad y ejecutivos de empresas tecnológicas.

“Estas plataformas alternativas no tienen el mismo grado de moderación de contenidos ni prácticas sólidas de confianza y seguridad que podrían mitigar estas campañas”, afirmó Lesser, de la Fundación para la Defensa de las Democracias.

Añadió que incluso plataformas más grandes como X, Facebook e Instagram estaban atrapadas en un eterno juego de Whac-a-Mole, ya que los operativos de estados extranjeros reconstruían rápidamente las campañas de influencia que habían sido eliminadas.

Alethea, una empresa que rastrea las amenazas en línea, descubrió recientemente que una campaña de desinformación iraní que utilizaba cuentas con nombres de abubillas, el pájaro de colores, reapareció recientemente en X a pesar de haber sido prohibida dos veces antes.

Fuente: Infobae.

Por: Sheera Frenkel, Tiffany Hsu y Steven Lee Myers.

C. 2024 – The New York Times.