L’Italia ha bloccato ChatGPT, la piattaforma di intelligenza artificiale sviluppata da OpenAI. Lo ha deciso il Garante per la privacy. Una decisione che, al momento, è stata presa solo in Cina, Russia, Iran e Hong Kong.

OpenAI: “Speriamo al più presto di lavorare a stretto contatto il Garante”

OpenAi ha dichiarato di aver disabilitato ChatGpt per gli utenti in Italia su richiesta del Garante.  Il sito internet dell’applicazione risulta al momento irraggiungibile dal nostro Paese. Un avviso sulla pagina web chat.openai.com. afferma che “il proprietario del sito potrebbe aver impostato restrizioni che impediscono agli utenti di accedere”. “Lavoriamo attivamente per ridurre i dati personali nella formazione dei nostri sistemi di intelligenza artificiale come ChatGpt, perché vogliamo che la nostra intelligenza artificiale impari a conoscere il mondo, non i privati – ha spiegato OpenAI – Riteniamo inoltre che la regolamentazione dell’Ai sia necessaria. Speriamo quindi di poter lavorare al più presto stretto contatto con il Garante per spiegare come i nostri sistemi siano costruiti e utilizzati”.

Garante della Privacy: “ChatGPT, con le fake news, può limitare la nostra libertà”

Pasquale Stanzione, il Garante della Privacy, intervistato da Repubblica, ha spiegato che le motivazioni della decisione.

“La raccolta realizzata per noi illecitamente riguarda, oltre a una quantità enorme di informazioni acquisite dal web, i dati personali degli utenti. Probabilmente anche quelli dei minorenni, visto che ChatGPT non ha un sistema di filtri per la verifica dell’età. Avverte che il servizio è riservato a chi ha più di 13 anni, ma poi non controlla chi vi accede”, ha affermato Stanzione.

“Abbiamo potuto accertare il fine del machine learning: il database che hanno costruito, e che è fermo al 2021, serve allo scopo di addestrare l’algoritmo di intelligenza artificiale a rispondere alle richieste degli utenti, migliorando la potenza di calcolo. – ha spiegato Stanzione – Non è paragonabile a Google. Il machine learning di ChatGPT, oltretutto, non è legittimato da presupposti giuridici e può generare bias cognitivi perché il database è di due anni fa e quindi si riscontrano inesattezze nelle risposte che l’algoritmo fornisce”.

Stanzione ha aggiunto: “Bisogna attendere gli sviluppi dell’istruttoria che abbiamo aperto e tenere conto che il nostro è un provvedimento cautelare, come tale dunque suscettibile di evoluzione nel corso del procedimento. Abbiamo inviato a OpenAI una serie di quesiti, hanno venti giorni per rispondere. Il nostro provvedimento ha un effetto inibitorio limitatamente ai dati delle persone fisiche stabilite nel territorio italiano. Vediamo se OpenAI rispetterà le disposizioni”.

Sul rischio che strumenti del genere siano utilizzati da apparati statali per inondare il web di propaganda e fake news, Stanzione ha detto che “in regimi non democratici questo rischio è sicuramente concreto e, direi, preoccupante: la potenza di calcolo posta al servizio di Paesi che non possano dirsi davvero Stati di diritto rischia di avere un effetto deflagrante sulla libertà delle persone. Se allarghiamo il discorso all’uso dell’intelligenza artificiale in contesti bellici, gli effetti sono anche peggiori”.

Articoli correlati