Intelligenza artificiale, parla la “madre” dell’AI Act: «Vi spiego perché DeepSeek è un’opportunità per le aziende Ue» – L’intervista
![deepseek aziende europee](https://static.open.online/wp-content/uploads/2025/02/deepseek-.jpg)
![deepseek aziende europee](https://static.open.online/wp-content/uploads/2025/02/deepseek-.jpg)
Dall’inizio di febbraio sono entrate in vigore le prime misure dell’AI Act, il regolamento dell’Unione Europea sull’intelligenza artificiale. Il pacchetto normativo è stato accolto come un successo pionieristico, ma ha anche sollevato critiche: alcuni ritengono che l’Europa si limiti a osservare e regolamentare, mentre Stati Uniti e Cina avanzano rapidamente nello sviluppo dell’AI. Con DeepSeek da un lato e ChatGPT dall’altro, qual è il futuro dell’Europa in questo scenario? L’AI Act frena davvero l’innovazione? A rispondere alla domande di Open è Carme Artigas, negoziatrice del regolamento europeo, ex segretaria di Stato per la Digitalizzazione della Spagna e Commissaria dell’Onu per l’intelligenza artificiale.
Nel 2019 è iniziato il suo sviluppo, nel 2025 l’AI Act entra in vigore. Cos’è cambiato da allora a oggi?
«Il panorama dell’intelligenza artificiale ha subito un forte scossone con il lancio di ChatGPT alla fine del 2022. Fino a quel momento, le istituzioni europee erano allineate sulla regolamentazione. L’arrivo di ChatGPT ha invece diviso le posizioni: mentre Commissione e Consiglio volevano garantire massima libertà ai mercati, il Parlamento spingeva per maggiori tutele nei confronti dei cittadini. Alla fine, abbiamo trovato un equilibrio».
Ne è venuta fuori la prima legge al mondo sull’intelligenza artificiale.
«Esatto. Anche se dirlo così è un po’ fuorviante. Perché l’AI Act non regola lo sviluppo dell’intelligenza artificiale, ma i suoi prodotti. E soprattutto i pericoli che comportano. Gli usi dell’AI vengono divisi in categorie di rischio e in base a ciascuna di esse sono previsti accorgimenti, requisiti di trasparenza e obblighi differenti. Questo ci permette di non limitarci a quello che già esiste, ma di focalizzarci su come verrà usata l’intelligenza artificiale che oggi è in fase di sviluppo e quella che verrà sviluppata in futuro».
![](https://static.open.online/wp-content/uploads/2025/02/parlamento-europeo-plenaria-13-marzo-1280x693.jpeg)
Eppure a spartirsi la torta dell’intelligenza artificiale in questi mesi sono Usa e Cina…
«Non certo a causa dell’AI Act. Il regolamento impone obblighi agli utenti, non agli sviluppatori, e spesso questi utenti sono governi e big tech. Senza limiti, abbiamo visto cosa può succedere: negli Usa, l’AI impatta la democrazia attraverso i social; mentre in Cina il social scoring classifica i cittadini, influenzandone i diritti».
L’AI Act prevede eccezioni per le forze dell’ordine, che possono fare usi dell’intelligenza artificiale proibiti ai cittadini. Alcuni osservatori hanno parlato del rischio di sorveglianza di massa. Cosa ne pensa?
«Non sono d’accordo con questa definizione. Perché l’uso dell’AI è consentito solo in circostanze precise. Ad esempio, con il riconoscimento facciale si può individuare un bambino rapito analizzando le immagini in diretta, ma lo stesso sistema non può essere usato per monitorare indiscriminatamente la popolazione se non si verificano crimini o non ci sono indagini in corso. È previsto che siano le autorità giudiziarie a stabilire quando è possibile farlo. Non si tratta di sorveglianza di massa, ma di strumenti mirati per la sicurezza».
Negli Usa, Elon Musk e il governo investono centinaia di miliardi nell’AI. L’Ue si limita a una settantina di milioni. Non le sembra una competizione impari?
«La differenza di investimenti esiste ed è un problema. Tuttavia, non è colpa della regolamentazione. L’Europa produce tante startup quante gli Usa, ma ha meno fondi disponibili. Negli Usa esistono centinaia di fondi di venture capital superiori al miliardo di dollari che finanziano le startup. In Europa appena due o tre. Ma se vediamo da dover arrivano i soldi dei fondi statunitensi, ci accorgiamo che in mezzo ci sono anche quelli di milioni di risparmiatori europei. Così, i soldi escono dall’Ue e vanno negli Usa, consentendo ai fondi americani di acquistare le aziende europee a prezzo di saldo. Anche i fondi pensione americani possono investire in startup. In Europa sarebbe impossibile, perché la propensione al rischio è molto diversa. La legge lo riflette, e quindi tendenzialmente investiamo meno».
Quali soluzioni per colmare il divario?
«All’Ue serve un mercato digitale unico e lo stiamo creando con il Digital Services Act (Dsa), la legge sui servizi digitali, di cui i primi pacchetti di norme sono entrati in vigore a inizio 2024; e il Digital Markets Act, la legge sui mercati digitali, in vigore da metà 2023. Così possiamo attrarre investimenti e creare stabilità. L’Ue è un mercato da 500 milioni di consumatori: se gli Stati agiscono insieme, diventa un polo economico solido. Se ciascun Paese segue la propria strada, gli investimenti si disperdono».
![Carme Artigas EU](https://static.open.online/wp-content/uploads/2025/02/Carme-Artigas-EU-1152x768.jpeg)
La Cina ha sviluppato DeepSeek senza investire centinaia di miliardi. Dovremmo prendere spunto da Pechino?
«Finora abbiamo tutti pensato che il dominio dell’intelligenza artificiale fosse un gioco a somma zero, in cui il vincitore prende tutto. Una gara da vincere con la forza bruta, con la creazione di impianti elettrici e server come prevede di fare l’amministrazione americana con Stargate. Ma DeepSeek ci ha insegnato che è dalla scarsità che deriva l’innovazione. La Cina non aveva a disposizione i chip più avanzati: l’unica cosa che poteva fare era rendere i programmi di intelligenza artificiale più efficienti. Così, è riuscita a creare un modello di intelligenza artificiale che rivaleggia con quelli degli Usa, ma che consuma e e spende molto meno».
A questo punto, qual è la strategia migliore per l’Europa?
«DeepSeek è open source. Tutti possono scaricarlo e leggere il codice. È un’occasione che le aziende europee non devono farsi sfuggire: possono adattarlo ai propri bisogni e valori. Non conta chi ha sviluppato un modello, ma come viene usato. Le industrie europee devono individuare i problemi che vogliono affrontare, e da lì allenare i modelli di AI con i propri dati per risolverli. Non servono modelli enormi, ma piccoli e mirati. In questo modo l’AI diventa anche inclusiva, perché può essere usata anche nei Paesi meno sviluppati».