Si OpenAI (la 'niña bonita' de la Inteligencia Artificial occidental) y su hijastra Anthropic (la empresa de IA de los ex OpenAI, Dario y Daniela Amodei, quienes se alejaron de Sam Altman cuando se relacionó con Microsoft), ya son proveedores del Pentágono, Alphabet / Google ha decidido dar el paso tan postergado: utilizará su Inteligencia Artificial para crear armas y tecnologías de vigilancia que le interesan al supermillonario Departamento de Defensa de USA.
MONEY IS NOTHING BUT...
Google rompe el pacto 2018: IA para desarrollar armas (la profecía de Albert Einstein)
Alguna vez los empleados del proyecto IA exigieron que Alphabet / Google no fuese contratista del Pentágono. Fueron despedidos y ahora... a las armas.
Alphabet / Google ya lo había intentado cuando los drones eran las estrellas del nuevo armamento -de todos modos, USA no se ha caracterizado hasta ahora por su tecnología de drones-, pero en ese momento ocurrió una insubordinación de investigadores que exigían que Alphabet / Google cumpliera con su compromiso fundacional. Todos terminaron despedidos.
Ahora, Alphabet / Google cumplirá con aquel proyecto. El argumento es ridículo pero bien estadounidense: "Queremos ayudar a las democracias a proteger la libertad y los derechos humanos". Es parecido a todo lo que explican los de NSO (Pegasus) y Paragon Solutions (ambos de Israel) cuando aparecen escándalos por periodistas, gente de las ONGs o políticos opositores espiados con su tecnología.
Pero todos sabemos que Alphabet / Google ya no es la que inventaron Larry Page y Sergey Brin....
El holding ha realizado un cambio importante en el documento que describe los principios de la compañía para trabajar con inteligencia artificial: eliminaron la cláusula que prohíbe el uso de la IA para crear armas y/o herramientas de vigilancia.
El desarrollo
The Washington Post (de Jeff Bezos / Amazon) llamó la atención el martes 04/02 sobre los cambios en la forma en que Alphabet / Google trabaja con IA. El Post demostró que los cambios se realizaron recientemente. Una copia archivada de la página del 30/01 todavía incluye restricciones al uso de IA en ciertas áreas.
Obviamente esto coincide con el anuncio de Amazon de que invertirá US$ 100.000 millones en el desarrollo de Inteligencia Artificial propia.
Los periodistas del Post recordaron que Google presentó sus principios de trabajo con Inteligencia Artificial en 2018. Lo hicieron precisamente como consecuencia de aquella protesta de los empleados contra la cooperación con el Pentágono en el marco del Proyecto Maven. El contrato militar implicaba el uso de los algoritmos de visión artificial de Google para analizar imágenes capturadas por drones.
"Creemos que Google no debería involucrarse en la guerra", afirmò una carta abierta firmada por más de 3.000 empleados de la empresa, acción que llevó el debate doméstico a la opinión pública global. Ellos exigieron que el proyecto se cerrara de inmediato y que se desarrollara una política transparente para el uso de las tecnologías de Google. En particular, la dirección debía garantizar que ni la propia empresa ni sus contratistas crearan jamás tecnologías militares.
En aquella oportunidad, Google abandonó el proyecto el Proyecto Maven. También publicó el documento exigido: Google no desarrollaría la inteligencia artificial (ni implementaría desarrollos existentes) para 4 áreas de aplicación:
- Tecnologías que causan o pueden causar daño general. "Si existe un riesgo significativo de daño, sólo actuaremos cuando creamos que los beneficios superan significativamente los riesgos y tomaremos las medidas de seguridad adecuadas", dice el documento.
- Armas u otras tecnologías cuyo propósito o uso principal sea causar daño a las personas o contribuir directamente a ese daño.
- Tecnologías que recopilan o utilizan información con fines de vigilancia en violación de normas internacionalmente aceptadas.
- Tecnologías cuyo propósito sea contrario a los principios generalmente aceptados del derecho internacional y de los derechos humanos.
Pero se incluyó una frase aclaratoria: “A medida que se acumule experiencia en esta área, la lista puede cambiar”.
Luego se procedió a la tarea de que los contestatarios fuesen abandonando la empresa.
Por ejemplo, Timnit Gebru y Margaret Mitchell, quienes en Google Research investigaban la ética de la inteligencia artificial.
La No Respuesta
The Washington Post contactó a Google para solicitar comentarios, pero la compañía se negó a responder preguntas específicas sobre el uso militar de la IA.
También aconsejaron a los periodistas leer un posteo en un blog corporativo que se publicó ese mismo día, firmado por el vicepresidente senior de Google, James Manyika; y el cofundador y CEO de Google DeepMind, Demis Hassabis (premio Nobel de Química).
Sin embargo, en ese texto no ocurrió ninguna novedad. Sólo fue 'humo'.
Manyika / Hassabis en el capítulo sobre nuevos principios de trabajo con IA afirman que las tecnologías de inteligencia artificial han avanzado significativamente, convirtiéndose en parte de la vida cotidiana de miles de millones de personas.
Y Google se enfocará en 3 áreas clave:
- innovación & desarrollo,
- despliegue responsable de IA,
- progreso compartido (la empresa creará tecnologías que ayuden a otros a utilizar la IA para el bien).
El blog no dice una palabra sobre el levantamiento de las restricciones relacionadas con el uso de inteligencia artificial.
El único párrafo quizás relacionado con la pregunta del Post fue:
"La carrera mundial por el liderazgo en IA se está desarrollando en un contexto cada vez más complejo.situación geopolítica compleja. Creemos quedemocrático paísesDebe liderar el desarrollo de la IA, guiados por valores fundamentales como la libertad, la igualdad y el respeto a los derechos humanos. También creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deben trabajar juntos para crear una IA que proteja a las personas, impulse el crecimiento global y mantiene la seguridad nacional."
Las autoridades de California intentan aprobar una ley que pueda destruir la industria de la inteligencia artificial en el estado “de origen” de OpenAI, Google y Apple (3 empresas radicadas en Silicon Valley, suburbios de San Francisco / California). La iniciativa permitirá a los directivos desactivar cualquier modelo de IA a su discreción.
Bendita Ética
El Consejo de Ética de IA independiente fue creado por el CEO de Google DeepMind, Demis Hassabis, quien habló sobre esto en una entrevista con Wired en enero de 2015.
Hassabis fundó su empresa, DeepMind Technologies, en 2010. Y 4 años después, fue comprada por Google, y la creación del Consejo fue una de las condiciones del acuerdo.
“Creo que la IA puede cambiar el mundo, es una tecnología increíble. Todas las tecnologías son inherentemente neutrales, pero pueden usarse para el bien o para el mal, por lo que debemos asegurarnos de que se utilicen de manera responsable. Mis cofundadores y yo sentimos esto desde hace mucho tiempo. Y lo que nos gustó del [acuerdo con] Google fue que también estaban muy comprometidos con esos puntos de vista".
Otra condición que propuso Hassabis fue que ninguna de las tecnologías desarrolladas por DeepMind sería utilizada con fines militares o de inteligencia.
Pero 3 ex empleados de Google que debían revisar proyectos para verificar el cumplimiento de los principios establecidos por la empresa confesaron a Wired que, ocasionalmente, encontraban problemas en su trabajo.
La publicación señaló que Google, probablemente, violó sus propias políticas. Por ejemplo, cuando firmó un contrato para participar en el proyecto Nimbus, iniciado por el gobierno y el ejército de Israel.
Algunos empleados de Google se opusieron a la decisión, temiendo que la tecnología de la compañía pudiera usarse para dañar a los palestinos.
Sin embargo, luego del ataque de Hamás a Israel en octubre de 2023, Google otorgó un mayor acceso al gobierno y ejército de Israel a sus herramientas de Inteligencia Artificial, informó The Washington Post, citando documentos internos de la empresa.
Al mismo tiempo, Google se negó a escuchar las opiniones de los empleados que se oponían a participar en el proyecto.
Más de 50 personas que protestaron contra Nimbus fueron despedidas de Google.
Según el Post, citado por la revista Meduza, Google insiste en que su trabajo en el Proyecto Nimbus no involucra armas ni actividades de inteligencia. La representante de la empresa, Anna Kovalchik, también enfatizó que el gobierno israelí cumple con todas las políticas y requisitos de Google con respecto al uso de las tecnologías proporcionadas.
Sin embargo las FDI (Fuerzas de Defensa de Israel) seleccionan objetivos militares en Gaza utilizando inteligencia artificial.
Esto provoca que cuando mueren militantes de Hamás tambien mueren muchos civiles inocentes.
Recuperando tiempo perdido
La inteligencia artificial, la robótica y las tecnologías relacionadas son decisivas para el ejército estadounidense, según Michael Horowitz, profesor de Ciencias Políticas en la Universidad de Pensilvania que trabajó en nuevas tecnologías para el Pentágono.
"Tiene sentido que Google haya actualizado sus políticas para reflejar la nueva realidad", dijo.
Google está algo por detrás de otras empresas tecnológicas. Por ejemplo, OpenAI anunció una asociación con Anduril Industries, una empresa de tecnología de defensa, en diciembre de 2024 para desarrollar e implementar soluciones avanzadas de inteligencia artificial aplicada a la lucha contra drones enemigos.
Antes, en noviembre de 2024, la empresa de inteligencia artificial Anthropic anunció una asociación con el desarrollador de software Palantir y Amazon Web Services (de Jeff Bezos, el del The Washington Post) para proporcionar al ejército estadounidense acceso a sus modelos de inteligencia artificial Claude, que mejore el análisis de inteligencia y la toma de decisiones.
Meta (Mark Zuckerberg) también anunció que pondría sus modelos de IA Llama a disposición de las agencias del gobierno y los contratistas de seguridad nacional.
El socio principal de OpenAI, Microsoft, tiene una larga trayectoria de colaboración con el Pentágono y otras oficinas de seguridad nacional.
De todos modos, los resultados del uso experimental de las tecnologías del Proyecto Maven en Ucrania fueron negativas.
“No sé con qué armas se peleará la 3ra. Guerra Mundial, pero la 4ta. será con palos y piedras”: Albert Einstein, después de la 2da. Guerra Mundial.
-------------------------
Otras noticias de Urgente24
Oscurece el panorama: Suspensiones, despidos, baja de salarios, ¿y ahora "esclavitud"?
Ingeniero Budge, San Antonio de Padua y Mar del Plata: en 3 balaceras hubo policías involucrados
"Turismo marrón" loca definición de concejal amarillo
De no cubrir un pagaré a declarar inconstitucional Ley bonaerense