Google anunció esta semana que firmó un acuerdo con el Departamento de Defensa de Estados Unidos para que su modelo Gemini pueda usarse en sistemas clasificados del Pentágono con cualquier propósito gubernamental legal. El acuerdo es parte de un contrato que la empresa suscribió el año pasado con las fuerzas armadas para proveer herramientas de IA.
REBELIÓN EN GOOGLE
Google lleva su IA al Pentágono pese a la protesta de sus empleados y Anthropic va a juicio
Más de 600 empleados se opusieron, pero Google firmó el acuerdo para que Gemini acceda a redes clasificadas. Anthropic demanda al gobierno tras ser vetada.
Gemini ya operaba en sistemas no clasificados del Pentágono pero este paso lo habilita para acceder a información sensible y restringida.
El lenguaje del acuerdo con Google espeja el de contratos similares que el Pentágono firmó el mes pasado con OpenAI y con xAI, la empresa de inteligencia artificial de Elon Musk.
Los tres acuerdos forman parte de una estrategia deliberada del Departamento de Defensa para distribuir sus apuestas en IA entre varios proveedores y evitar depender de un solo proveedor. "El acuerdo podría darle flexibilidad al ejército y evitar una situación donde una sola empresa tenga el monopolio de los contratos", dijo un funcionario al New York Times.
Por qué Anthropic no está en esa lista: la pelea sobre guardrails que escaló a los tribunales
Anthropic fue la primera empresa de IA en operar en redes clasificadas del Pentágono. Pero la relación se deterioró cuando el Departamento de Defensa exigió que la empresa eliminara sus restricciones sobre dos usos específicos. Armas autónomas y vigilancia masiva doméstica.
Anthropic se negó. Su posición fue que un proveedor de tecnología tiene el derecho y la responsabilidad de establecer condiciones sobre cómo se usa su producto. El Pentágono tomó la posición opuesta: que una empresa privada no debería poder dictarle al gobierno cómo opera.
El conflicto escaló en marzo, cuando el Departamento de Defensa designó a Anthropic como "riesgo de cadena de suministro", una categoría que en la práctica la excluye de trabajar con el gobierno federal.
Anthropic respondió con una demanda judicial para revertir esa designación y seguir operando con otras agencias gubernamentales que no son el Pentágono.
Hace unos diez días, funcionarios de la Casa Blanca se reunieron con la empresa para explorar un posible compromiso, según el New York Times. Todavía no hubo acuerdo.
La situación tiene consecuencias concretas e inmediatas. El Pentágono le pidió al Congreso esta semana 2.300 millones de dólares para expandir el Proyecto Maven, el sistema de análisis de inteligencia construido por Palantir, que actualmente usa tecnología de Anthropic para procesar información.
Si la disputa no se resuelve, el ejército tendría que reemplazar a Anthropic en ese sistema con un proveedor alternativo.
El dilema que divide a toda la industria: ¿puede una empresa de IA poner condiciones sobre el uso militar?
La posición de Anthropic no es nueva. En febrero, más de 100 empleados de Google que trabajan en inteligencia artificial firmaron una carta pidiendo a la empresa que estableciera en sus contratos gubernamentales las mismas restricciones que Anthropic exigía.
Esta semana, antes de que se conociera el acuerdo definitivo con el Pentágono, más de 600 empleados de las divisiones de IA y nube de Google firmaron otra carta oponiéndose a que la empresa cediera su tecnología para operaciones militares clasificadas.
El precedente más cercano dentro de Google es sombrío. En 2018, la empresa firmó un acuerdo con el Pentágono que desencadenó una rebelión interna masiva y terminó con la cancelación del contrato.
En los años siguientes, Google centralizó las decisiones sobre ese tipo de acuerdos y redujo la capacidad de los empleados de influir sobre ellos.
Esta semana firmó de igual forma, con la oposición de 600 de sus propios trabajadores.
La paradoja de Anthropic: demanda al Pentágono mientras Google invierte 40.000 millones en ella
El caso tiene una dimensión que subraya las tensiones estructurales del ecosistema de IA. Google y Anthropic son competidores directos, modelos de lenguaje que compiten en el mismo mercado, pero también son socios.
Google comenzó a respaldar a Anthropic desde sus primeras etapas y la semana pasada confirmó un compromiso de inversión de hasta 40.000 millones de dólares en la empresa.
Anthropic además depende de Google y Amazon para la infraestructura de nube y los chips de IA que necesita para operar y desarrollar sus modelos.
Es una relación donde uno de los socios acaba de firmar el contrato que el otro rechazó por razones éticas y está demandando al gobierno.
El modelo de IA más poderoso de Anthropic, Mythos, lanzado este mes, es considerado por muchos analistas como potencialmente crítico para la seguridad nacional, lo que aumenta la presión sobre la empresa para que llegue a un acuerdo con el Pentágono.
OpenAI, Google y xAI respondieron con un sí a la demanda del ejército.
Anthropic dijo que no, y está pagando un precio alto por esa respuesta. El resultado de su demanda judicial va a trazar la línea para todos los que vengan después.
¿Hasta dónde puede llegar la autonomía de una empresa privada para establecer condiciones éticas sobre el uso de su tecnología cuando ese uso involucra seguridad nacional?
---------------------------------------
Más contenido de Urgente24
Telefe quedó pagando los platos rotos por esta figura y el canal no lo dejó pasar
Javier Milei nombró al nuevo titular de la UIF: Quién es Matías Álvarez
Nicolás Vázquez palpita lo que será la nueva edición de Popstars: "Estoy muy feliz"










