Perché il Garante della Privacy ha bloccato ChatGPT: «Il rischio è inondare il web di fake news»
ChatGPT non ha un servizio di controllo dell’età. Avverte che il servizio è riservato a chi ha più di 13 anni ma non verifica chi vi accede. Ma soprattutto: con le fake news può limitare le nostre libertà. Per questo il Garante della Privacy ha bloccato l’applicazione di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, «finché non sarà assicurato il rispetto della disciplina». Pasquale Stanzione oggi spiega in un’intervista a Repubblica le perplessità dell’Authority. «Abbiamo potuto accertare il fine del machine learning. Il database che hanno costruito, e che è fermo al 2021, serve allo scopo di addestrare l’algoritmo di intelligenza artificiale a rispondere alle richieste degli utenti. Migliorando così la potenza di calcolo», dice Stanzone.
Il funzionamento
Un tema sollevato anche da Stefano Zanero nell’intervista ad Open: «Dovremmo usare il blocco come spunto per riflettere su delle tecnologie che hanno degli evidenti ed esclusivi vantaggi dal punto di vista tecnico e scientifico, ma anche dei difetti che nell’entusiasmo delle prime analisi erano sfuggiti». Ma per il garante quello che fa ChatGPT non è paragonabile a Google: «Il machine learning di ChatGPT non è legittimato da presupposti giuridici. E può generare bias cognitivi perché il database è di due anni fa e quindi si riscontrano inesattezze nelle risposte che l’algoritmo fornisce». Stanzone dice che l’Autorità ha inviato una serie di quesiti a OpenAI, che ha venti giorni di tempo per rispondere. Intanto si schiera con Elon Musk, che ha chiesto una moratoria per l’intelligenza artificiale: «Fa molto riflettere, soprattutto sulla parte in cui richiama alla necessità di un governo antropocentrico, democratico e sostenibile (e, per quanto riguarda l’Europa, conforme ai suoi valori) dell’intelligenza artificiale, che non può che presupporre una cornice regolatoria adeguata e fondata sulla centralità dell’essere umano».
Le fake news
Ma c’è un altro pericolo che sottolinea il Garante: quello di inondare il web di fake news. «In regimi non democratici questo rischio è sicuramente concreto e, direi, preoccupante: la potenza di calcolo posta al servizio di Paesi che non possano dirsi davvero Stati di diritto rischia di avere un effetto deflagrante sulla libertà delle persone. Se allarghiamo il discorso all’uso dell’intelligenza artificiale in contesti bellici, gli effetti sono anche peggiori», dice. E nel colloquio con Fabiano Tonacci e Giuliano Foschini aggiunge che anche altre autorità europee hanno acceso un faro su ChatGPT: «I neurodiritti, non necessariamente nuovi ma anche desunti da quelli già sanciti, devono, allora, servire a salvaguardare quel nucleo intangibile della persona, presupposto ineludibile di libertà, che è libera autodeterminazione».
Leggi anche:
- ChatGPT è davvero pericoloso per i dati? E per i minori? Le risposte dell’esperto e il test di Open
- Stop a ChatGPT in tutta Italia, il Garante della Privacy blocca l’app d’intelligenza artificiale: «Non tutela i dati personali né i minori»
- HustleGpt, guadagnare con le istruzioni di ChatGPT: «Ho investito 100 dollari e ora il mio progetto ne vale 25 mila»
- «Sì a ChatGPT per scrivere i temi». La svolta dei licei internazionali: «Ma andrà citato nelle fonti»
- Supercomputer, email e sfida a Google: ecco perché Microsoft investirà 10 miliardi in Open Ai (la società che produce ChatGPT)