OpenAI combate la influencia iraní en las elecciones estadounidenses.
Estados Unidos.-Ante la creciente preocupación por la integridad de los procesos electorales, OpenAI ha tomado medidas decisivas para desarticular una operación de influencia iraní encubierta entorno a las elecciones de Estados Unidos.
Denominado Storm-2035, este grupo utilizó cuentas de ChatGPT para crear y esparcir material manipulativo acerca de las elecciones presidenciales en Estados Unidos.
Para proteger su tecnología de inteligencia artificial (IA) de ser mal utilizada durante las elecciones presidenciales, OpenAI identificó y desmanteló recientemente una campaña de influencia oculta atribuida a actores iraníes. Estos generaban y diseminaban material manipulador en redes sociales y sitios web, abordando asuntos políticos delicados como el conflicto en Gaza, las elecciones en Estados Unidos y la política venezolana.
El compromiso de OpenAI con la transparencia y la prevención del abuso es fundamental para contrarrestar estas operaciones. Según un informe de la empresa, se expuso cómo la operación iraní buscaba influir en la opinión pública estadounidense mediante la creación de perfiles falsos en redes sociales, que se presentaban como progresistas o conservadores.
Estos perfiles publicaban contenido generado por ChatGPT, que incluía comentarios basados en publicaciones ya existentes en las plataformas. Aunque la operación tuvo un impacto limitado, OpenAI no solo eliminó las cuentas implicadas, sino que también compartió la información relevante con el gobierno, campañas políticas y la industria para prevenir futuras manipulaciones electorales mediante IA.
El informe de Microsoft Threat Intelligence ayudó a identificar a Storm-2035 como una red iraní activa desde 2020, cuyo objetivo es fomentar la discordia y polarización en Estados Unidos. Los operadores de Storm-2035 usaron ChatGPT para fabricar artículos falsos que atribuían declaraciones controvertidas a figuras políticas como Kamala Harris en temas de inmigración y cambio climático.
Te puede interesar: OpenAI impulsa la innovación con IA en museos interactivos
Aunque estas campañas no fueron muy efectivas en términos de alcance y participación, OpenAI sigue firme en su lucha contra cualquier manipulación con IA. La empresa continúa vigilante, especialmente en un año electoral tan crucial como el 2024.
Además, el caso de Storm-2035 no es aislado. En mayo, OpenAI interrumpió cinco campañas similares que usaban ChatGPT con fines malintencionados. Con las elecciones en Estados Unidos en el horizonte, es probable que se intensifiquen los esfuerzos de actores malintencionados que buscan usar la IA para difundir desinformación.