MCV Noticias

Demandan a CEO de OpenAI (ChatGPT) por tiroteo de Canadá

San Francisco, California.- De la disculpa a los tribunales: el caso que pone a OpenAI (creadores de la IA de ChatGPT) contra las cuerdas tras tiroteo en Canadá. Lo que comenzó como una disculpa pública de su CEO, Sam Altman, está convirtiéndose en una batalla legal que podría redefinir la responsabilidad de la inteligencia artificial en crímenes reales.

El pasado 23 de abril, el CEO de OpenAI, Sam Altman, ofreció disculpas a una comunidad de Canadá tras revelarse que la empresa detectó señales de riesgo en el comportamiento de la autora de un tiroteo ocurrido en febrero, pero no alertó a las autoridades. Días después, el caso escaló: este 29 de abril se ha sabido que familias de las víctimas presentaron una demanda en Estados Unidos, acusando a la compañía de negligencia y de no haber actuado para evitar la tragedia.

El ataque, registrado en la localidad de Tumbler Ridge, dejó una decena de personas muertas —incluidos menores— y más de 25 heridos, convirtiéndose en uno de los tiroteos más graves en años en el país. Investigaciones posteriores revelaron que meses antes del crimen, la agresora había mantenido conversaciones con ChatGPT sobre violencia y cómo deshacerse de un cuerpo, lo que activó alertas internas dentro de la empresa. 

De acuerdo con reportes recientes, empleados de seguridad de la compañía incluso debatieron la posibilidad de notificar a la policía, pero la decisión final fue no hacerlo al considerar que no se alcanzaba el umbral necesario para una intervención. Ocho meses después, el ataque se consumó.

Ahora, las familias de las víctimas sostienen que esa omisión fue clave. La demanda presentada en una corte federal estadounidense acusa a OpenAI y a Sam Altman de no advertir a las autoridades pese a contar con información que podía haber prevenido el tiroteo. También argumentan que las herramientas de inteligencia artificial pudieron haber contribuido indirectamente a la planificación del ataque.

Los demandantes buscan indemnizaciones por muerte por negligencia, además de cambios estructurales en los protocolos de seguridad de la empresa, incluyendo la obligación de reportar amenazas creíbles a las fuerzas del orden.

En respuesta, la compañía ha reconocido fallas en sus procesos y ha asegurado que ya implementa nuevas medidas, como sistemas de detección más estrictos, evaluaciones de riesgo y una mayor disposición para colaborar con autoridades en casos potencialmente peligrosos.

El caso marca un precedente inédito: es una de las primeras demandas que intenta vincular directamente a una empresa de inteligencia artificial con un acto de violencia masiva. Más allá del resultado judicial, el proceso abre una discusión de fondo sobre hasta dónde llega la responsabilidad de las plataformas tecnológicas cuando sus herramientas son utilizadas con fines criminales.

Con información de El Economista y Forbes México.

Artículos relacionados

Niño tizimileño que sufrió quemaduras severas será trasladado a Texas

MCV

Alerta por la tormenta solar más grande en dos décadas

MCV

Isabel II, muere una grande

mcvnoticias
Send this to a friend