OMNI OpenAI > China > inteligencia artificial

ERA INEVITABLE

OpenAI liberó sus primeros modelos abiertos en 5 años para frenar el avance IA de China

Después de años defendiendo su estrategia cerrada, OpenAI lanza dos modelos gratuitos que cualquiera puede descargar. ¿Desesperación por competir con DeepSeek?

La guerra de la inteligencia artificial acaba de cambiar de bando. OpenAI, la empresa que revolucionó el mundo con ChatGPT y que siempre defendió mantener sus secretos bajo llave, acaba de hacer algo impensado: regalar su tecnología. China hizo su movida y Sam Altman pensó un poco mejor las cosas.

image
 ¿La razón? Los chinos les están pisando los talones y la presión política estadounidense los obligó a mostrar las cartas.

¿La razón? Los chinos les están pisando los talones y la presión política estadounidense los obligó a mostrar las cartas.

Este 5/08/25, la compañía de Sam Altman lanzó dos modelos de IA completamente gratuitos y descargables desde Hugging Face. Los llamados gpt-oss-120b y gpt-oss-20b marcan el primer lanzamiento "abierto" de OpenAI desde GPT-2 en 2019.

El dragón asiático que despertó a OpenAI

Durante años, OpenAI construyó un imperio vendiendo acceso a sus modelos cerrados a través de su API. La estrategia funcionó a la perfección: empresas y desarrolladores pagaban fortunas por acceder a GPT-4 y sus variantes. Pero algo cambió drásticamente cuando laboratorios chinos como DeepSeek, Alibaba y Moonshot AI comenzaron a dominar el espacio de modelos abiertos.

La humillación llegó cuando estos modelos asiáticos no solo eran gratuitos, sino que además superaban en performance a muchas ofertas occidentales pagadas. Incluso Meta, que antes lideraba con Llama, quedó relegada en el último año. De repente, OpenAI se encontró siendo espectadora de una revolución que ellos mismos podrían liderar.

image
Estos modelos prometen capacidades similares a la serie o3 y o4-mini, pero con una diferencia clave: cualquier desarrollador puede descargarlos sin pagar un centavo. El más grande funciona en una sola GPU de Nvidia, mientras que el liviano corre hasta en una laptop común con 16GB de memoria. Una democratización que suena demasiado buena para ser verdad.

Estos modelos prometen capacidades similares a la serie o3 y o4-mini, pero con una diferencia clave: cualquier desarrollador puede descargarlos sin pagar un centavo. El más grande funciona en una sola GPU de Nvidia, mientras que el liviano corre hasta en una laptop común con 16GB de memoria. Una democratización que suena demasiado buena para ser verdad.

Según TechCrunch, el mismo Altman admitió en enero que su empresa estuvo "del lado equivocado de la historia" respecto al código abierto. Una confesión que suena más a mea culpa empresarial que a convicción tecnológica. La realidad es que perdieron el tren del open source y ahora corren desesperadamente para no quedar afuera.

¿Regalo envenenado o estrategia brillante?

Los números cantan una verdad incómoda para OpenAI. Sus nuevos modelos abiertos superan a DeepSeek R1 en pruebas de codificación competitiva (Codeforces), alcanzando puntajes de 2622 y 2516 respectivamente. También lideran en Humanity's Last Exam, un test desafiante que evalúa conocimiento general. Hasta acá, todo suena perfecto.

Pero acá viene el pero: estos modelos alucinen el triple que sus hermanos cerrados o1 y o4-mini. En PersonQA, el benchmark interno de la empresa, fallan en casi la mitad de las respuestas sobre personas reales (49% y 53%), comparado con apenas 16% del modelo o1. Un detalle que OpenAI admite pero trata de minimizar.

image
¿Es esto competencia o OpenAI está regalando sus modelos defectuosos mientras guarda los buenos para seguir facturando? La empresa no liberó los datos de entrenamiento, manteniendo cierto control sobre su "generosidad". Además, implementaron una arquitectura de "mixture-of-experts" que activa solo una fracción de los parámetros totales, sugiriendo que hay mucho más guardado bajo la manga.

¿Es esto competencia o OpenAI está regalando sus modelos defectuosos mientras guarda los buenos para seguir facturando? La empresa no liberó los datos de entrenamiento, manteniendo cierto control sobre su "generosidad". Además, implementaron una arquitectura de "mixture-of-experts" que activa solo una fracción de los parámetros totales, sugiriendo que hay mucho más guardado bajo la manga.

La licencia Apache 2.0 permite a las empresas monetizar estos modelos sin pagar regalías a OpenAI, pero la ausencia de datos de entrenamiento mantiene a la empresa como el único jugador capaz de replicar completamente la experiencia. Una movida astuta que parece generosa pero conserva control estratégico.

Con la administración Trump presionando para que las empresas estadounidenses abran más tecnología "alineada con valores democráticos", esta jugada huele más a estrategia geopolítica que a altruismo tecnológico. OpenAI busca recuperar terreno ante el avance chino, pero ¿será suficiente cuando DeepSeek R2 ya está en camino y promete superar todo lo visto hasta ahora?

---------------------------------------------------------

Más contenido en Urgente24

Chau Pesos, hola Argentum: ¿qué implicaría el cambio de moneda?

Valentín Torres Erwerle, la primera víctima del regreso de los visitantes

Vale todo para Sturzenegger: Denuncian que eliminó Vialidad Nacional con informes falsos

El video hot con una vedette que hizo explotar a Mauro Icardi y la China Suárez

La miniserie de 6 capítulos que todos ven en una sola noche