OpenAI cierra una operación de influencia electoral que utilizaba ChatGPT

OpenAI ha bloqueado un grupo de cuentas ChatGPT vinculadas a una operación de influencia iraní que generaba contenidos sobre las elecciones presidenciales de Estados Unidos, según una entrada de blog publicada el viernes. La empresa afirma que la operación creaba artículos y publicaciones en redes sociales generados por IA, aunque no parece que llegaran a mucha audiencia.

No es la primera vez que OpenAI bloquea cuentas vinculadas a agentes estatales que utilizan ChatGPT de forma malintencionada. En mayo, la empresa desbarató cinco campañas que utilizaban ChatGPT para manipular la opinión pública.

Estos episodios recuerdan a la utilización por parte de agentes estatales de plataformas de redes sociales como Facebook y Twitter para intentar influir en anteriores ciclos electorales. Ahora, grupos similares (o quizá los mismos) están utilizando la IA generativa para inundar los canales sociales de desinformación. Al igual que las empresas de medios sociales, OpenAI parece estar adoptando un enfoque de «golpear al azar», prohibiendo las cuentas asociadas con estos esfuerzos a medida que surgen.

OpenAI dice que su investigación de este grupo de cuentas se benefició de un informe de Microsoft Threat Intelligence publicado la semana pasada, que identificó al grupo (al que llama Storm-2035) como parte de una campaña más amplia para influir en las elecciones estadounidenses que opera desde 2020.

Microsoft dijo que Storm-2035 es una red iraní con múltiples sitios imitando medios de noticias y «comprometiendo activamente a grupos de votantes estadounidenses en extremos opuestos del espectro político con mensajes polarizadores sobre temas como los candidatos presidenciales estadounidenses, los derechos LGBTQ y el conflicto entre Israel y Hamás.» El libro de jugadas, como ha demostrado ser en otras operaciones, no consiste necesariamente en promover una política u otra, sino en sembrar la disensión y el conflicto.

OpenAI identificó cinco sitios web fachada de Storm-2035, que se presentaban como medios de noticias progresistas y conservadores con nombres de dominio convincentes como «evenpolitics.com«. El grupo utilizó ChatGPT para redactar varios artículos largos, incluido uno en el que se afirmaba que «X censura los tuits de Trump«, algo que la plataforma de Elon Musk ciertamente no ha hecho (en todo caso, Musk está animando al expresidente Donald Trump a participar más en X).

En las redes sociales, OpenAI identificó una docena de cuentas de X y una de Instagram controladas por esta operación. La empresa afirma que ChatGPT se utilizó para reescribir varios comentarios políticos, que luego se publicaron en estas plataformas. Uno de estos tuits alegaba falsa y confusamente que Kamala Harris atribuye el «aumento de los costes de inmigración» al cambio climático, seguido de «#DumpKamala«.

OpenAI dice que no vio pruebas de que los artículos de Storm-2035 se compartieran ampliamente y observó que la mayoría de sus publicaciones en las redes sociales recibieron pocos o ningún «me gusta», «compartir» o «comentar». Este suele ser el caso de estas operaciones, que son rápidas y baratas de poner en marcha utilizando herramientas de IA como ChatGPT. A medida que se acercan las elecciones y se intensifican las disputas partidistas en Internet, es de esperar que aparezcan muchos más avisos de este tipo.

Deja un comentario