Hace menos de un año, JD Vance les dijo a los líderes tecnológicos y gubernamentales reunidos en París que "el futuro de la IA no se ganará lamentándose por la seguridad. Se ganará construyendo." Era la posición oficial de la administración Trump: manos afuera, que la industria corra.
REGULACIÓN EN MARCHA
Trump gira 180 grados: el gobierno que desreguló la IA evalúa revisar los modelos antes de que salgan
La administración que prometió dejar a la industria tecnológica operar sin restricciones está considerando un sistema de supervisión de los modelos de IA.
Hoy, según The New York Times, esa misma administración está discutiendo un decreto ejecutivo para crear un grupo de trabajo que evalúe los modelos de IA antes de que sean lanzados al público.
Qué cambió: un modelo tan poderoso que nadie se animó a publicarlo
Todo empezó con el anuncio de Mythos, el modelo de Anthropic. La empresa lo describió como tan capaz de identificar vulnerabilidades en software que podría desencadenar un "momento de ajuste de cuentas" en ciberseguridad, y decidió no publicarlo.
Es la primera vez que una empresa de IA de primer nivel lanza un modelo al mercado reconociendo abiertamente que es demasiado peligroso para uso general.
La Casa Blanca tomó nota. Según funcionarios citados por el Times, el gobierno quiere evitar las consecuencias políticas de un ciberataque devastador habilitado por IA.
También evalúa si modelos como Mythos podrían tener aplicaciones útiles para el Pentágono y las agencias de inteligencia como la NSA que ya lo usó para evaluar vulnerabilidades en software gubernamental.
La idea que toma fuerza entre algunos funcionarios es un sistema de revisión que le daría al gobierno acceso anticipado a los modelos antes de su lanzamiento, sin necesariamente bloquear su publicación.
Una ventana para evaluar riesgos antes de que lleguen al público.
El cambio que nadie esperaba: de desregular a supervisar
Cuando Trump volvió a la Casa Blanca, una de sus primeras decisiones fue desmantelar el proceso regulatorio que Biden había construido, la obligación de que los desarrolladores de IA realizaran evaluaciones de seguridad e informaran sobre modelos con potencial uso militar.
El cambio de postura también tiene un componente político doméstico. Una encuesta de Pew Research del año pasado encontró que el 50% de los republicanos y el 51% de los demócratas dicen estar más preocupados que entusiasmados por el avance de la IA en la vida cotidiana.
La IA se perfila como tema de las elecciones de medio término de 2026, y en Washington nadie quiere quedar del lado equivocado si algo sale mal.
El liderazgo en política de IA también cambió dentro de la Casa Blanca. En marzo, David Sacks, el "zar de la IA" que había liderado la desregulación, dejó el cargo.
Susie Wiles, jefa de gabinete, y Scott Bessent, secretario del Tesoro, tomaron el timón. Ambos, según el Times, tienen planes de involucrarse más activamente en la política del sector.
La relación tensa entre el gobierno y Anthropic complica todo
El giro regulatorio ocurre en medio de un conflicto abierto entre el Pentágono y Anthropic. Este año, ambos se enfrascaron en una disputa por un contrato de 200 millones de dólares sobre el uso de IA en operaciones militares.
Cuando no llegaron a un acuerdo, el Pentágono cortó el acceso del gobierno a la tecnología de Anthropic en marzo. Anthropic demandó al gobierno.
La pelea generó problemas prácticos. Varias agencias gubernamentales dependían de los modelos de Anthropic para su trabajo cotidiano.
En abril, Wiles y Bessent se reunieron con Dario Amodei, el CEO de la empresa, con el objetivo de recomponer la relación. Ambas partes describieron el encuentro como "productivo", según el Times.
La IA se regula en todas partes: no es solo Trump
Lo que está pasando es parte de un patrón global que se viene consolidando. Los gobiernos que apostaron por la desregulación están dando marcha atrás, o al menos frenando.
La Unión Europea avanzó con el AI Act, el primer marco regulatorio integral del mundo para inteligencia artificial, que clasifica los sistemas por nivel de riesgo y establece requisitos obligatorios.
Reino Unido está construyendo su propio proceso de evaluación de modelos, el mismo que la Casa Blanca cita como referencia para lo que quiere implementar.
China tiene regulaciones específicas sobre modelos generativos que exigen registro y aprobación gubernamental antes del lanzamiento.
El consenso que empieza a emerger, incluso entre quienes más resistieron la regulación, es que los modelos más poderosos necesitan algún tipo de revisión antes de ser liberados.
No porque la tecnología sea mala, sino porque sus capacidades superaron la velocidad a la que los marcos legales pueden procesar las consecuencias.
¿Quién hace esa revisión, con qué criterios y con qué poder real para intervenir? En eso, por ahora, no hay respuesta clara en ningún lado.
-------------------------------
Más contenido de Urgente 24
Irán debería ondear "la bandera de rendición" dice Trump y Emiratos Árabes Unidos cae en la volteada
Diputados van por Adorni: Pedido de interpelación tras el escándalo de las refacciones
"Milei está apoyando con US$350 mil": Escándalo internacional tras audios filtrados
Bochorno de Martín Menem: Grotesca apropiación de LLA en Diputados
Banco Macro lanza campaña "Soñá en grande" con Lionel Scaloni








