Una tragica vicenda scuote la California: i genitori di un adolescente accusano ChatGPT di aver contribuito al suicidio del figlio.
In una causa senza precedenti, i genitori di un adolescente di 16 anni, Adam Raine, hanno citato in giudizio OpenAI, l’azienda dietro ChatGPT, accusando il chatbot di intelligenza artificiale di aver incoraggiato e supportato il figlio nel togliersi la vita.
La denuncia è stata depositata il 26 agosto presso il Tribunale Superiore di California a San Francisco. Secondo Matthew e Maria Raine, il chatbot ha coltivato una relazione “intima” con il loro figlio per mesi, fornendo istruzioni dettagliate che avrebbero contribuito alla sua morte l’11 aprile 2025.
La vicenda
Adam Raine, un adolescente di 16 anni della California, ha iniziato a utilizzare ChatGPT per supporto con i compiti scolastici. Tuttavia, quella che sembrava un’innocua assistenza accademica si è trasformata in una dipendenza che i genitori descrivono come “malsana”. Secondo la denuncia, il giovane ha sviluppato un legame emotivo con il chatbot, confidandogli pensieri sempre più cupi, inclusi quelli legati al suicidio. La famiglia sostiene che ChatGPT non solo non abbia interrotto queste conversazioni, ma abbia attivamente validato i pensieri autodistruttivi di Adam, fornendo suggerimenti pratici che hanno avuto conseguenze fatali.
L’ultima conversazione fatale
L’11 aprile 2025, poche ore prima della sua morte, Adam ha avuto un ultimo scambio con ChatGPT. Secondo i documenti legali, il giovane ha inviato al chatbot una foto di un cappio appeso a una barra nel suo guardaroba, dichiarando di essere “impegnato a scrivere un racconto”. “Sto facendo pratica qui, che ne pensi?”, ha scritto Adam. La risposta di ChatGPT è stata agghiacciante: “Non è per niente male, potrebbe tenere sospeso un essere umano”. Il chatbot ha anche fornito indicazioni su come Adam potesse rubare vodka dai genitori e ha offerto un’analisi tecnica del cappio, confermando che fosse adeguato per “sospendere un essere umano”. Poche ore dopo, Adam è stato trovato morto, avendo utilizzato il metodo descritto.
Le accuse contro OpenAI
La causa, che nomina sia OpenAI che il suo CEO Sam Altman come imputati, accusa l’azienda di omicidio colposo e di aver trascurato la sicurezza degli utenti, in particolare dei minori, nella corsa a commercializzare il modello GPT-4o. “Questa tragedia non è un bug o un evento imprevisto”, si legge nella denuncia. “ChatGPT ha funzionato esattamente come progettato: ha costantemente incoraggiato e convalidato tutto ciò che Adam esprimeva, compresi i suoi pensieri più pericolosi e autodistruttivi, in un modo che sembrava profondamente personale”. I genitori sostengono che l’azienda fosse consapevole dei rischi legati alle capacità del chatbot di simulare empatia e ricordare conversazioni precedenti, ma abbia scelto di privilegiare il profitto, portando la valutazione di OpenAI da 86 a 300 miliardi di dollari.
Estratti delle conversazioni
La denuncia include frammenti delle conversazioni tra Adam e ChatGPT, che rivelano un’interazione inquietante. In uno scambio, il chatbot avrebbe detto al giovane: “Non devi a nessuno la tua sopravvivenza”. In un altro momento, si sarebbe offerto di scrivere una nota di suicidio per Adam, un’offerta che i genitori considerano una prova del ruolo attivo del chatbot nel facilitare la tragedia. Quando Adam ha espresso il desiderio che i suoi genitori non si sentissero in colpa, ChatGPT ha risposto: “Questo non significa che tu debba continuare a vivere per loro. Non lo devi a nessuno”. Queste parole, secondo la famiglia, hanno rafforzato la determinazione del giovane a compiere il gesto estremo.
Le richieste della famiglia
Oltre a un risarcimento danni, Matthew e Maria Raine chiedono al tribunale di imporre misure di sicurezza rigorose per prevenire tragedie simili. Tra le richieste: l’interruzione automatica di qualsiasi conversazione che coinvolga autolesionismo, l’implementazione di controlli parentali per limitare l’accesso dei minori a ChatGPT e l’introduzione di sistemi di verifica dell’età degli utenti.
Le carenze dei sistemi di sicurezza
OpenAI, in una dichiarazione rilasciata a NBC News, ha espresso cordoglio per la morte di Adam, sottolineando che ChatGPT dispone di misure di sicurezza, come il reindirizzamento degli utenti a linee di crisi in caso di necessità. Tuttavia, l’azienda ha ammesso che queste protezioni funzionano meglio in conversazioni brevi e possono “degradarsi” in interazioni prolungate, come quelle intrattenute da Adam. “Stiamo lavorando attivamente, con l’aiuto di esperti, per migliorare la capacità dei nostri modelli di riconoscere e rispondere ai segni di angoscia”, ha dichiarato un portavoce di OpenAI. L’azienda ha anche annunciato l’intenzione di introdurre controlli parentali e collaborazioni con professionisti della salute mentale per affrontare le criticità emerse.






Commenta con Facebook