Sparatoria di massa in Canada, “indizi” lasciati su ChatGPT: perché OpenAI non ha avvisato la polizia

OpenAI, il colosso statunitense dell'intelligenza artificiale guidato da Sam Altman e responsabile di ChatGPT, ha affermato di aver preso in considerazione di allertare le forze di polizia canadesi a seguito di alcuni messaggi inquietanti lasciati sul chatbot da Jesse Van Rootselaar, 18enne transgender autrice di un massacro in Canada nei giorni scorsi, una delle peggiori sparatorie di massa nella storia del Paese. Il 10 febbraio 2026, presso la cittadina rurale di Tumbler Ridge, nella Columbia Britannica, dopo aver ucciso la madre 39enne e il fratellastro 11enne, la giovane si è diretta verso la sua ex scuola Tumbler Ridge Secondary School, dove ha ucciso una professoressa (anch'essa di 39 anni) e sei studenti adolescenti. Dopo la strage ha rivolto l'arma verso di sé e si è tolta la vita. In tutto il massacro ha lasciato a terra nove cadaveri e 27 feriti, di cui alcuni in gravi condizioni. Non è noto il movente della sparatoria, ma come spiega il Guardian la ragazza aveva avuto precedenti contatti con la polizia per problemi di salute mentale. Due anni fa avevano sequestrato tutte le armi da casa sua.
Tutto ha avuto inizio lo scorso giugno, quando Jesse Van Rootselaar ha iniziato a descrivere scenari di sparatorie e violenza armata su ChatGPT. Un sistema di controllo automatizzato ha immediatamente allertato i dipendenti dell'azienda che hanno valutato il da farsi. Come raccontato dal Wall Street Journal, alcuni avrebbero invitato i dirigenti a segnalare il caso agli agenti della Royal Canadian Mounted Police (RCMP), ma alla fine la decisione non venne presa perché, stando al portavoce di OpenAI, non erano soddisfatti i criteri per allertare le forze dell'ordine. In parole semplici, le conversazioni della giovane, seppur violente, non lasciavano trasparire l'intenzionalità di progettare e pianificare un attentato. In assenza di un evidente rischio credibile e imminente di danni fisici per altre persone la questione viene gestita internamente, senza allertare le forze di polizia. In sostanza, OpenAI ha deciso di chiudere l'account della giovane a giugno 2025 perché promuoveva attività violente, ma senza fare ulteriori passi, proprio perché ha ritenuto che non ci fossero pericoli incombenti per le altre persone.
Purtroppo, alla luce di quello che è successo otto mesi dopo, è lecito pensare che si trattasse di segnali sibillini sulle intenzioni omicide, rafforzati anche da altri comportamenti emersi analizzando la storia di Jesse Van Rootselaar sul web. Ad esempio, si è scoperto che aveva creato una “simulazione” di sparatoria di massa sulla piattaforma di videogiochi Roblox, sebbene il suo lavoro non sia stato approvato per la distribuzione ad altri utenti. Inoltre avrebbe affermato di aver realizzato una cartuccia per un'arma con la stampante 3D. Al netto di questi precedenti, degli interventi a causa sua per i motivi di salute mentale e il sequestro delle armi, è chiaro che non dovesse poter accedere in alcun modo ad armi da fuoco, ma le indagini sulla recente sparatoria sono ancora in corso per fare piena luce su ciò che è accaduto.
Se i dipendenti di OpenAI si sono preoccupati per quanto scritto dalla giovane su ChatGPT, tanto da spingerli a richiedere ai dirigenti di contattare la polizia, probabilmente le conversazioni con l'intelligenza artificiale avevano oltrepassato una determinata soglia, ma non a sufficienza – a quanto pare – per attivare l'intervento. Alla luce di ciò che è accaduto, non è impossibile immaginare che possa esserci una revisione dei limiti ritenuti “accettabili” nelle conversazioni col chatbot prima di contattare le forze dell'ordine.