Quizás te interese leer: ¿Culpa de ChatGPT? OpenAI bajo la lupa tras tiroteo mortal en Florida
Qué respondió OpenAI al respecto
La compañía rechazó de plano su responsabilidad. A través de su portavoz Drew Pusateri, OpenAI afirmó que "ChatGPT no es responsable de este terrible crimen" y que el chatbot se limitó a proporcionar respuestas verídicas a preguntas con información disponible públicamente en internet, sin promover actividades ilegales.
La empresa también reveló que, tras el tiroteo, identificó una cuenta presuntamente asociada al sospechoso y la compartió de forma proactiva con las autoridades. Según Pusateri, OpenAI sigue cooperando con las fuerzas del orden y trabaja en mejorar continuamente la detección de intenciones maliciosas.
OpenAI sostiene que entrena sus modelos para rechazar solicitudes que puedan facilitar violencia de manera significativa, y que notifica a las autoridades cuando detecta riesgo inminente y creíble de daño.
El contexto: una investigación penal y más demandas
Este caso no es un hecho aislado. En abril de 2026, el fiscal general de Florida, James Uthmeier, anunció el inicio de una investigación penal sobre el papel de ChatGPT en el tiroteo de la FSU, luego de que los fiscales revisaran los registros de las conversaciones entre Ikner y el programa.
Se trata, además, de al menos la segunda demanda en Estados Unidos que acusa a OpenAI de facilitar un tiroteo masivo. El mes pasado, familiares de víctimas de uno de los ataques más letales de Canadá demandaron a la empresa y a su CEO, Sam Altman, alegando que OpenAI sabía ocho meses antes del ataque que el agresor lo estaba planificando a través de ChatGPT, y no alertó a la policía.
Según Reuters, las demandas contra empresas de inteligencia artificial por su supuesta vinculación con actos de violencia y autolesión están en aumento sostenido en el mundo anglosajón. Los casos ponen en el centro del debate una pregunta clave:
- ¿Tienen los chatbots obligación legal de detectar y reportar intenciones criminales?
- ¿Puede una empresa de IA ser considerada responsable por el uso que un tercero hace de su producto?
- ¿Es suficiente con que el sistema no "promueva" la violencia, o debe también prevenirla activamente?
Estas preguntas no tienen respuesta legal definitiva aún, pero los tribunales estadounidenses —y ahora también los canadienses— empiezan a construir jurisprudencia en torno a ellas.
¿Qué podría cambiar a partir de este caso?
El resultado de esta demanda podría tener consecuencias de largo alcance para toda la industria de la inteligencia artificial.
Si un tribunal determina que OpenAI tiene responsabilidad civil por las conversaciones de sus usuarios, podría establecerse un estándar que obligue a las empresas a:
- Implementar sistemas más robustos de detección de amenazas en tiempo real.
- Reportar automáticamente conversaciones de riesgo a las autoridades.
- Incluir advertencias explícitas sobre el uso indebido de los chatbots.
---------------------------------------------------------------------------------------------------
Más contenido en Urgente24
El Nueve priorizó a Viviana Canosa y una figura del canal puso el grito en el cielo
Banco tira la casa por la ventana y lanza 24 cuotas sin interés: Qué se puede comprar
El archivo de Diego Latorre que termina de hundir a Yanina: "No quiere que yo la..."
Nike: Demanda colectiva en Estados Unidos por aranceles de Donald Trump
















