Ue: un codice per l’intelligenza artificiale
![](https://static.open.online/wp-content/uploads/2018/12/ue-un-codice-per-lintelligenza-artificiale.jpg)
![](https://static.open.online/wp-content/uploads/2018/12/ue-un-codice-per-lintelligenza-artificiale.jpg)
Forse le tre leggi della robotica concepite da Isaac Asimov sono già superate dalla realtà. Non abbiamo ancora robot tanto intelligenti da acquisire una coscienza propria, eppure i problemi non mancano. Andrup Ansip, vicepresidente della Commissione europea e commissario al Digitale, ha rilasciato una dichiarazione che potrebbe sembrare esagerata, eppure abbiamo già molti esempi di quanto l’Intelligenza artificiale possa creare problemi etici e sociali, specialmente nell’ambito lavorativo; persino sul fronte dei diritti civili.
L’intelligenza artificiale può apportare grandi benefici alle nostre società, dalla diagnosi dei tumori alla riduzione del consumo energetico. Ma affinché le persone accettino e utilizzino i sistemi basati su questa tecnologia devono averne fiducia, sapere che la loro privacy è rispettata, che le decisioni non sono di parte. Il lavoro del gruppo di esperti è molto importante in questo senso e incoraggio tutti a condividere i commenti per aiutare a finalizzare le linee guida.
Ecco quindi che i tempi sembrano ormai maturi per varare un codice etico europeo sulle IA. L’intento è proprio quello di tutelarci dagli effetti collaterali di un uso spensierato degli algoritmi sulle nostre vite.
Andare ad un colloquio con l’IA
Non è passato molto tempo dalle polemiche suscitate da “robot Vera”, una intelligenza artificiale creata dalla start-up russa Stafory e impiegata per selezionare il personale. I suoi sviluppatori sono impegnati anche a dotarla della capacità di riconoscere le emozioni dei candidati.
Cosa può andare storto? Ne sa qualcosa Microsoft che fece una figuraccia colossale nel 2016 con la sua chat-bot: ad un certo punto si è trovata a scrivere frasi inneggianti a Hitler, questo perché alcuni utenti si erano divertiti a cercare di “confonderla”, con messaggi non proprio moderati.
Il problema degli algoritmi “razzisti”
Ma il vero problema – se parliamo di selezione del personale da parte di una Intelligenza artificiale – è proprio l’intrinseca tendenza degli algoritmi ad assumere “atteggiamenti discriminatori”. Uno studio pubblicato dall’Università di Princeton è riuscito a dimostrare che gli stessi programmatori potrebbero trasmettere involontariamente dei pregiudizi agli algoritmi.
In sostanza, se un programma avesse a disposizione tutti i dati statistici sulle probabilità che avrebbe un candidato ad essere efficiente sul lavoro, la conseguenza potrebbe essere che i soggetti più deboli della società avrebbero meno possibilità di trovare un impiego, questo perché magari stando alle informazioni a disposizione un nero in America risulterebbe più tendente a commettere crimini (trascurando le cause sociali e politiche dei freddi dati statistici), oppure una donna in gravidanza avrebbe meno possibilità di essere produttiva quanto una collega senza figli a carico.
Intelligenze artificiali psicopatiche
Ma al peggio. quando si parla di IA, non c’è mai limite. Lo sanno bene i ricercatori del Media Lab di Boston, i quali sono riusciti a creare la prima IA dota ta di sintomi psicotici. Potremmo dire che gli scienziati in questo caso si sono fatti un po’ beffe dei media. In realtà si è trattato solo di una simulazione: serviva ai ricercatori proprio per mettere in evidenza i problemi che l’affidarsi ad una mera IA comporterebbero.
Androidi con cittadinanza e candidabili alle elezioni
Per quanto possa sembrare strano, i robot dotati di IA sono già andati oltre le nostre aspettative (nonostante siano ancora molto primordiali), sollevando questioni etiche e civili che pensavamo dovessero restare chiuse. Ma non è ancora possibile in quel paese candidare delle macchine.