OpenAI non ha avvertito le autorità canadesi: il sospetto di Jesse Van Rootselaar e l’attentato di Tumbler Ridge
Fonti
Fonte: The Guardian – “OpenAI considered alerting Canadian police about school shooting suspect months ago”.
Approfondimento
OpenAI, l’azienda che ha sviluppato ChatGPT, ha riferito di aver identificato l’account di Jesse Van Rootselaar nel giugno 2025 come potenzialmente coinvolto in “furtherance of violent activities” (promozione di attività violente). Secondo la stessa azienda, l’account è stato segnalato a OpenAI tramite i propri sistemi di rilevamento degli abusi. L’azienda ha dichiarato di aver valutato la possibilità di avvisare le autorità canadesi, ma non ha proceduto a farlo.

Il sospetto, mesi dopo, è stato coinvolto in uno degli episodi di violenza più gravi nella storia delle scuole canadesi, noto come l’attentato di Tumbler Ridge.
Dati principali
| Data | Evento | Dettagli |
|---|---|---|
| Giugno 2025 | Rilevamento account | Account di Jesse Van Rootselaar identificato come “furtherance of violent activities” |
| Giugno 2025 | Valutazione segnalazione | OpenAI ha considerato di avvisare le autorità canadesi |
| Febbraio 2026 | Attentato di Tumbler Ridge | Un episodio di violenza in una scuola canadese, tra i più gravi della storia del paese |
Possibili Conseguenze
La mancata segnalazione potrebbe sollevare interrogativi sulla responsabilità delle piattaforme digitali nel prevenire la violenza. Potrebbe influenzare future politiche di collaborazione tra aziende tecnologiche e forze dell’ordine, oltre a impattare la percezione pubblica sulla sicurezza online.
Opinione
Il caso evidenzia la complessità delle decisioni che le aziende tecnologiche devono affrontare quando identificano contenuti potenzialmente pericolosi. La scelta di non segnalare può essere motivata da considerazioni legali, di privacy o di policy interna, ma solleva questioni etiche sul ruolo delle piattaforme nella prevenzione della violenza.
Analisi Critica (dei Fatti)
OpenAI ha confermato di aver rilevato l’account e di aver valutato la segnalazione, ma non ha fornito dettagli sul motivo della non segnalazione. Non è chiaro se la decisione sia stata influenzata da normative canadesi, da politiche interne di OpenAI o da altre considerazioni. La mancanza di trasparenza limita la capacità di valutare pienamente la responsabilità dell’azienda.
Relazioni (con altri fatti)
Questo episodio si inserisce in un più ampio contesto di discussioni su come le piattaforme di intelligenza artificiale gestiscono contenuti violenti. Simili casi includono la gestione di contenuti su TikTok e YouTube, dove le piattaforme hanno dovuto bilanciare la libertà di espressione con la prevenzione della violenza.
Contesto (oggettivo)
In Canada, le leggi sulla sicurezza pubblica e la protezione dei minori prevedono che le autorità possano intervenire in caso di minacce imminenti. Le piattaforme digitali, tuttavia, non sono obbligate legalmente a segnalare contenuti sospetti, a meno che non vi sia una richiesta formale da parte delle autorità. OpenAI, come molte altre aziende tecnologiche, ha sviluppato sistemi di rilevamento degli abusi per identificare contenuti che violano le proprie policy.
Domande Frequenti
1. Che cosa ha fatto OpenAI riguardo all’account di Jesse Van Rootselaar?
OpenAI ha identificato l’account come potenzialmente coinvolto in attività violente e ha valutato la possibilità di avvisare le autorità canadesi, ma non ha proceduto a farlo.
2. Quando è stato rilevato l’account?
L’account è stato identificato nel giugno 2025.
3. Qual è stato l’esito dell’attentato di Tumbler Ridge?
Il sospetto è stato coinvolto in uno degli episodi di violenza più gravi nella storia delle scuole canadesi, avvenuto a febbraio 2026.
4. Quali sono le implicazioni legali per OpenAI?
Attualmente non è chiaro se OpenAI abbia violato leggi canadesi; la mancanza di segnalazione solleva questioni etiche ma non necessariamente legali, a meno che non vi sia una normativa specifica che obblighi la segnalazione.
5. Come si inserisce questo caso nelle politiche di sicurezza delle piattaforme digitali?
Il caso evidenzia la necessità di politiche chiare e trasparenti su come le piattaforme gestiscono contenuti potenzialmente pericolosi e su quando e come collaborano con le autorità.
Commento all'articolo