OpenAI eliminó cuentas ChatGPT iraníes que buscaban interferir en USA
OpenAI desmanteló una operación encubierta de un grupo iraní que usaba ChatGPT para generar contenido destinado a influir en las elecciones de USA.

OpenAI desmanteló una operación encubierta de un grupo iraní que usaba ChatGPT para generar contenido destinado a influir en las elecciones de USA.
La red conocida como Storm-2035 utilizó el chatbot de la compañía para crear contenido, incluidos “artículos largos sobre candidatos de ambos lados en las elecciones presidenciales de Estados Unidos”, que luego se compartieron como comentarios breves en inglés y español en las redes sociales.
Los artículos se publicaban en los siguientes dominios;
niothinker[.]com
savannahtime[.]com
evenpolitics[.]com
teorador[.]com
westlandsun[.]com
En la investigación, OpenAI identificó una docena de cuentas en X y una en Instagram que se hacían pasar por progresistas y otras por conservadoras cuyos comentarios eran generados por ChatGPT que reescribía los publicados por otros usuarios de las redes sociales.
La empresa de IA contó en su web que identificó y eliminó las cuentas del chatbot asociadas a la red que intentaba manipular la opinión pública o influir en los resultados políticos. La idea de esos sutiles ataques extranjeros (una especie de guerra psicológica) es emitir "mensajes polarizadores sobre temas como los candidatos presidenciales de Estados Unidos, los derechos LGBTQ y el conflicto entre Israel y Hamás" para dividir a una nación entera.
“En consecuencia, como parte de nuestro trabajo para apoyar a la comunidad en general a interrumpir esta actividad después de eliminar las cuentas de nuestros servicios, hemos compartido información sobre amenazas con las partes interesadas del gobierno, las campañas y la industria”, comunicó la compañía.
El enemigo ya no utiliza la invasión con el despliegue de tropas para atacar, sino que se infiltra en los sistemas más secretos de los Estados Unidos o utiliza la tecnología de última generación a su favor para destruirlo. Los apagones masivos, ciberataques dispersos, la desinformación y los hackeos a la red nacional son pruebas claras; todo una serie de eventos que en el momento oportuno podría provocar disturbios y sumergir a todo un país en una guerra civil.
Estas redes son sofisticadas. OpenAI dijo que la red iraní, para disimular sus oscuras intenciones, también generaba contenido sobre los Juegos Olímpicos, la política venezolana, y moda y belleza, posiblemente para parecer más auténticos o un intento de crear una base de seguidores.
Días atrás Microsoft informó que la misma red iraní Storm-2035 estaba creando sitios de noticias fake y desplegando trolls para influenciar en los votantes estadounidenses antes de las elecciones presidenciales de USA.
Descubrió 4 sitios web que se hacían pasar por medios de noticias que interactúan activamente con grupos de votantes estadounidenses en extremos opuestos del espectro político.
Los actores iraníes vienen creando sitios de noticias falsas (que parecen legítimos) y suplantando la identidad de activistas (phishing) para extremar la polarización en Estados Unidos e influir directamente en la votación de noviembre.
El phising, el arma de esta guerra híbrida que propaga adrede desinformación, es una técnica de ciberataque para apropiarse de su identidad. Los cyberdelincuentes envían correos electrónicos fake como anzuelo para “pescar” contraseñas y datos personales.
En el informe, Microsoft precisó que los piratas informáticos vinculados al gobierno de Irán intentaron entrar en la cuenta de un "funcionario de alto rango" de la campaña presidencial estadounidense en junio, semanas después de ingresar -a través del phishing- en la cuenta de otro funcionario estadounidense.
Si bien OpenAi dijo que esta operación no parece haber logrado una participación significativa de la audiencia (pocos o ningún "Me gusta"), es una señal del peligroso uso que se le puede dar a los chatbots para desestabilizar un país, sobre todo en momentos álgidos.
La campaña del expresidente Donald Trump afirmó el fin de semana pasado que algunas de sus comunicaciones internas fueron pirateadas por “fuentes extranjeras hostiles a Estados Unidos”.
No es la primera vez que OpenAI toma acciones. En mayo desbarató 5 operaciones de influencia encubiertas que buscaban utilizar sus modelos para "actividades engañosas" en Internet.
Pablo Echarri no se hace cargo de Alberto Fernández: "Lo veíamos venir"
Golpe al DNU: La desregulación de precios de la medicina prepaga es inconstitucional
BCRA: Compras por US$101 millones, oro y flexibilización
Resolución "light" de la OEA para que Nicolás Maduro aclare resultados
¿Y ahora?: Se aceleró la inflación que mira Milei (que recalcula)