focus sull'innovazione.

Torna a precedente

ChatGPT e prevenzione dei reati, il caso canadese che apre un dilemma

Dopo la sparatoria in Columbia Britannica, emergono interrogativi su privacy e segnalazioni alle autorità

ChatGPT e prevenzione dei reati, il caso canadese che apre un dilemma

Condividi

Il caso canadese riapre il dibattito sul ruolo di ChatGPT e OpenAI nella prevenzione della violenza online

Quando una tragedia colpisce una comunità, le domande non riguardano solo ciò che è accaduto, ma anche ciò che si sarebbe potuto fare per evitarlo. È quanto emerge dal caso di Jesse Van Rootselaar, sospettata di una sparatoria di massa nella Columbia Britannica, in Canada, una vicenda che coinvolge anche il ruolo delle piattaforme di intelligenza artificiale come ChatGPT.

Le interazioni con ChatGPT e il dibattito interno a OpenAI

Secondo quanto riportato dal Wall Street Journal, mesi prima dell’episodio avvenuto a Tumbler Ridge, Van Rootselaar aveva utilizzato ChatGPT descrivendo per più giorni scenari di violenza armata. I contenuti erano stati intercettati da un sistema di revisione automatizzato, attivando un confronto interno tra i dipendenti di OpenAI.

All’interno dell’azienda si sarebbe aperta una discussione: segnalare o meno le interazioni alle forze dell’ordine. Alcuni membri dello staff avrebbero suggerito di avvisare le autorità, ma alla fine la dirigenza ha stabilito che non vi fossero gli estremi per una comunicazione formale.

La soglia del rischio credibile e imminente

Una portavoce di OpenAI ha spiegato che l’account di Van Rootselaar era stato bloccato, ma che l’attività registrata non soddisfaceva i criteri previsti per una segnalazione alle autorità. Le policy interne richiedono infatti l’esistenza di un rischio credibile e imminente di gravi danni fisici. In assenza di questo requisito, l’azienda ha scelto di non procedere.

La decisione evidenzia una questione centrale nel rapporto tra tecnologia e sicurezza pubblica: dove si colloca il confine tra tutela della privacy e prevenzione di possibili reati?

La sparatoria e l’intervento della Royal Canadian Mounted Police

Il 10 febbraio Van Rootselaar è stata trovata morta in quella che è apparsa come un’autolesione, sulla scena di una sparatoria di massa che ha provocato otto vittime e almeno 25 feriti. Dopo aver appreso della tragedia, OpenAI ha contattato la Royal Canadian Mounted Police dichiarando piena collaborazione alle indagini. In una nota ufficiale l’azienda ha espresso vicinanza alle persone colpite dalla tragedia di Tumbler Ridge.

Le tracce digitali precedenti alla tragedia

Alcuni elementi del profilo digitale della sospettata erano già emersi online. Van Rootselaar aveva sviluppato un videogioco che simulava una sparatoria all’interno di un centro commerciale sulla piattaforma Roblox, progetto che non era stato approvato per la distribuzione pubblica. Inoltre, aveva pubblicato contenuti sui social che la ritraevano al poligono di tiro e partecipato a discussioni online su armi e munizioni, inclusi riferimenti alla stampa 3D di componenti.

Intelligenza artificiale e responsabilità preventiva

Il caso solleva interrogativi più ampi sul ruolo delle piattaforme digitali. I sistemi di revisione automatizzata possono individuare segnali di allarme, ma la valutazione finale resta affidata a criteri giuridici e aziendali complessi. Segnalare ogni contenuto potenzialmente violento rischierebbe di generare falsi positivi; non intervenire potrebbe esporre a critiche nel caso di tragedie successive.

La questione non riguarda soltanto ChatGPT o OpenAI, ma l’intero ecosistema digitale. In un contesto in cui le interazioni online diventano sempre più frequenti e articolate, stabilire quando un contenuto rappresenti una minaccia concreta è una delle sfide più delicate per le aziende tecnologiche e per le istituzioni.

La tragedia avvenuta in Canada riapre così un dibattito cruciale: quale deve essere il livello di responsabilità preventiva delle piattaforme di intelligenza artificiale quando emergono segnali di possibile violenza?


Condividi

25 Febbraio 2026
© I.CO.E. grippi associati
https://www.grippiassociati.com/focus.do?key=1771761162&dettagli=chatgpt-e-prevenzione-dei-reati

focus sull'innovazione

Editoriale realizzato in collaborazione con la I.CO.E.
Centro studi su innovazione, comunicazione ed etica.

Copywriters
Francesca S., Matteo R., Laura A., Antonella B., Giorgio F., Anna C., Miriam M., Stefano G., Adele P., Francesca N. e Roberto C. Indice articoli


Precedente

grippi associati Live, Think, Work, Create!

grippi e associati
con il supporto tecnologico di
supporto Oracle OpenAI

QRcode grippiassociati
LANGUAGE

grippi associati ICT
Via Giosué Carducci, 10
00187 Roma IT
PI 14592991005
GoogleMap
Data Center: Via C. Pavese RM-EUR

30th Anniversary 1996–2026
© 1996, grippi associati ICT. Tutti i diritti sono riservati.