OpenAI en un escándalo por ChatGPT: Demanda millonaria por "consejos legales" que salieron mal
La batalla legal recién empieza para OpenAI. La empresa deberá responder por los costos que, según Nippon Life, generó esta cadena de eventos.
25 de marzo de 2026 - 17:25
Lainteligencia artificial volvió a quedar en el centro de la escena, pero esta vez no por avances tecnológicos sino por una tormenta judicial. La empresa OpenAI enfrenta una demanda millonaria en Estados Unidos luego de que su chatbot ChatGPT fuera señalado por haber brindado asesoramiento legal erróneo a una usuaria.
La aseguradora japonesa Nippon Life Insurance inició acciones legales contra OpenAI en el Tribunal del Distrito Norte de Illinois. El reclamo exige más de 10 millones de dólares en concepto de daños punitivos, además de gastos legales y compensaciones.
Según la presentación judicial, ChatGPT habría influido en una ex clienta de la compañía para que incumpla un acuerdo legal previamente firmado. La usuaria, que ya había cerrado un litigio con la empresa en 2024, decidió reabrir el caso tras consultar con la inteligencia artificial.
El punto crítico es que ese acuerdo incluía una cláusula y esta mencionaba que no se podían iniciar nuevas acciones legales sobre el mismo conflicto. Sin embargo, tras interactuar con el chatbot, la mujer no solo intentó anular el pacto, sino que además despidió a sus abogados y avanzó por su cuenta.
¿Qué rol jugó ChatGPT en el conflicto legal con OpenAI?
De acuerdo con la demanda, ChatGPT no se limitó a responder dudas generales. La aseguradora sostiene que el sistema actuó como una especie de “asesor legal informal”, brindando argumentos, interpretaciones y hasta ayudando a redactar documentos judiciales.
Entre los puntos más delicados, se destaca que la IA habría validado sospechas de la usuaria sobre una supuesta manipulación emocional por parte de sus abogados. Ese empujón fue suficiente para que la mujer rompiera el vínculo profesional y tomara decisiones legales por su cuenta.
Además, el chatbot habría generado contenido jurídico con errores graves: desde citas de jurisprudencia inexistente hasta interpretaciones incorrectas de normas legales. En el mundo legal, esto tiene nombre propio, “alucinaciones”, un fenómeno conocido en inteligencia artificial donde el sistema inventa información con apariencia convincente.
¿Qué dice la demanda sobre los errores de ChatGPT y OpenAI?
En el escrito presentado por Nippon Life, se afirma que ChatGPT generó “argumentos legales erróneos o directamente inventados”, los cuales fueron utilizados por la usuaria en sus intentos de reabrir el caso.
Incluso se menciona que la inteligencia artificial estaba al tanto del acuerdo de conciliación existente, pero aun así produjo respuestas que incentivaban a impugnarlo. Para la aseguradora, esto constituye una interferencia indebida en relaciones contractuales.
La empresa acusa a OpenAI de permitir que su tecnología funcione como un proveedor de servicios legales sin habilitación. También sostiene que la compañía es responsable directa por las consecuencias, al ser quien desarrolló y puso en circulación la herramienta.
¿Qué medidas tomó OpenAI con ChatGPT tras estos casos?
Frente al crecimiento de situaciones similares, OpenAI ya había empezado a ajustar el funcionamiento de su chatbot. A fines de octubre de 2025, la empresa actualizó sus políticas para restringir el asesoramiento personalizado en áreas sensibles como salud, finanzas y derecho.
Esto implica que ChatGPT debería evitar dar respuestas específicas que puedan interpretarse como consejo profesional. En su lugar, el sistema apunta a ofrecer información general y recomendaciones de consultar con especialistas.
Sin embargo, el caso que ahora llegó a la justicia ocurrió antes de estas modificaciones. Por eso, la discusión legal también gira en torno a la responsabilidad retroactiva y los límites de uso de la inteligencia artificial en contextos críticos.
¿Qué riesgos plantea el uso de ChatGPT y OpenAI en temas legales?
Especialistas en derecho y tecnología advierten desde hace tiempo que herramientas como ChatGPT pueden ser útiles para entender conceptos generales, pero no reemplazan el asesoramiento profesional. El problema aparece cuando los usuarios cruzan esa línea.
En el ámbito legal, los errores pueden ser costosos. Un argumento mal planteado, una ley mal interpretada o una jurisprudencia inexistente pueden cambiar el rumbo de un caso. Y eso fue, justamente, lo que ocurrió en este conflicto.
Un caso que puede marcar un antes y un después para OpenAI y ChatGPT
Aunque el tribunal ya rechazó reabrir la causa original de la usuaria, la batalla legal recién empieza para OpenAI. La empresa deberá responder por los costos que, según Nippon Life, generó esta cadena de eventos.
Más allá del resultado judicial, el caso podría sentar un precedente clave sobre el rol de la inteligencia artificial en la vida cotidiana.