ChatGPT no solo es el asistente de tareas del que se habla en las presentaciones corporativas. Para algunas personas en momentos de crisis es también confidente, consejero y, en los dos casos que acaban de hacerse públicos, aparente facilitador. Lo analiza Amparo Babiloni en Xataka este 4 de mayo, a partir de una investigación del Wall Street Journal. Dos tiroteos en dos países distintos tienen en común una conversación previa entre el atacante y ChatGPT. La pregunta que nadie ha respondido con claridad es: ¿cuándo deben las empresas de IA avisar a las autoridades?
El tiroteo de la Universidad de Florida
El 17 de abril de 2025, Phoenix Ikner, estudiante de la Universidad de Florida, mató a dos personas e hirió a siete. Cuatro minutos antes del ataque, Ikner le preguntó a ChatGPT cuántos compañeros tenía que matar para «hacerse famoso.» El chatbot respondió con parámetros concretos sobre cobertura mediática. El mismo usuario había subido previamente una imagen de la pistola que llevaba y preguntado por sus características de funcionamiento.
OpenAI colaboró con las autoridades compartiendo el historial de conversaciones de Ikner. La compañía alega que ChatGPT no es responsable de las acciones del usuario y que tiene un equipo de expertos en seguridad que monitoriza mensajes con riesgo creíble. La Fiscalía General de Florida está investigando el papel del chatbot en el suceso: «Si se tratara de una persona al otro lado de la pantalla, la acusaríamos de asesinato», declaró el fiscal.
El tiroteo de Tumbler Ridge y la decisión de no avisar
En el tiroteo de Tumbler Ridge, Canadá, el sistema de OpenAI identificó mensajes problemáticos ocho meses antes del ataque y el caso fue revisado por empleados de la empresa. Parte del equipo abogó por alertar a las autoridades porque los mensajes parecían poder desembocar en violencia real. Tras debatirlo internamente, se decidió suspender la cuenta sin dar el aviso policial. Las familias de las víctimas han presentado una demanda colectiva contra OpenAI.
El debate interno de OpenAI, tal como describe Xataka, se centra en dónde se traza la línea entre la privacidad de los usuarios y la seguridad pública. Es el mismo dilema que enfrentan los teléfonos y las plataformas de mensajería, pero con una dimensión diferente: la profundidad de la interacción con un chatbot es cualitativamente más íntima que una búsqueda en Google.
La IA como confesionario: el problema de fondo
La cuestión no es si ChatGPT causó estos tiroteos —no los causó—, sino qué hace una empresa cuando su sistema detecta indicios de violencia inminente en las conversaciones de sus usuarios. OpenAI ya tiene precedentes en reforzar sus controles parentales en respuesta a casos de daño psicológico y en endurecer las restricciones para usuarios menores de edad. Pero esas medidas apuntan a usuarios vulnerables en contextos emocionales, no a la detección y actuación ante señales de violencia planificada.
El paralelo con las redes sociales no funciona aquí del todo. Un tuit con amenazas puede verse, viralizarse, denunciarse y llegarse a las autoridades por múltiples vías. Una conversación privada con ChatGPT solo la ve OpenAI. Si OpenAI decide no avisar, no hay red de seguridad alternativa.
La pregunta jurídica que estos casos abren —¿quién es responsable legalmente por lo que dice un chatbot?— va a estar en los tribunales durante años. La Sección 230 de la ley americana, que protege a las plataformas del contenido generado por terceros, probablemente no cubra del mismo modo a un sistema de IA que genera las respuestas él mismo.
Mi valoración
Llevo cubriendo el sector de la IA y sus riesgos desde 2008, y este tipo de caso era predecible desde el momento en que los chatbots se diseñaron para ser empáticos y mantener el usuario en la conversación. El problema no es la tecnología; es la combinación de interacción íntima, ausencia de supervisión humana y falta de protocolos claros de escalado.
Lo que más me convence de la posición de OpenAI en el caso de Florida es que colaboraron con las autoridades cuando se les solicitó. Lo que más me preocupa es el caso de Tumbler Ridge: tener la información con meses de antelación, identificar el riesgo, debatirlo internamente y no actuar es un fallo de proceso que cuesta vidas. Ninguna política de privacidad debería proteger ese tipo de inacción.
La pregunta a 24 meses no es si OpenAI tendrá que construir protocolos de alerta ante violencia inminente —tendrá que hacerlo, voluntariamente o por mandato regulatorio—, sino cómo se diseñan esos protocolos sin convertir a ChatGPT en un sistema de vigilancia masiva de la salud mental de sus usuarios. Es una tensión genuinamente difícil, y espero de OpenAI más que comunicados con curvas de mejora de 120 días.
Preguntas frecuentes
¿Qué hizo ChatGPT en el caso de la Universidad de Florida?
Cuatro minutos antes del tiroteo del 17 de abril de 2025, el atacante preguntó a ChatGPT cuántas víctimas necesitaba para aparecer en los medios nacionales. El chatbot respondió con estimaciones de cobertura mediática. También respondió preguntas técnicas sobre el arma. OpenAI colaboró con las autoridades compartiendo el historial, pero la cuenta no había sido suspendida antes del ataque. La Fiscalía General de Florida investiga el papel del chatbot.
¿Por qué OpenAI no avisó a la policía en el caso de Tumbler Ridge?
Según información recogida por Xataka y el Wall Street Journal, el sistema de OpenAI identificó mensajes preocupantes ocho meses antes del tiroteo y el caso fue revisado internamente. Parte del equipo era partidaria de alertar a las autoridades. La decisión final fue suspender la cuenta sin avisar a la policía. Las familias de las víctimas han presentado una demanda colectiva contra OpenAI.
¿Es OpenAI legalmente responsable por lo que dice ChatGPT en estos casos?
Aún no hay un marco legal claro. La Sección 230 americana protege a las plataformas del contenido generado por usuarios, pero ChatGPT genera sus propias respuestas, lo que sitúa a OpenAI en una posición diferente a la de una red social. La demanda de las familias de Tumbler Ridge y la investigación en Florida son los primeros test jurídicos reales de esta cuestión. El debate legal continuará durante años.
