OpenAI fornirà la sua intelligenza artificiale al Pentagono: l’accordo con Anduril per i droni da guerra
OpenAI, azienda madre di ChatGPT e tra le più importanti al mondo nel campo dell’intelligenza artificiale, ha reso noto di aver stretto una partnership con Anduril, una startup del settore della difesa che produce missili, droni e software per l’esercito degli Stati Uniti. Sono sempre di più i contratti di questo tipo stipulati dalle compagnie della Silicon Valley con la Difesa degli Usa. Secondo quanto fa sapere OpenAI, per ora i sistemi di intelligenza artificiale verranno usati solo per la difesa. Nello specifico, la compagnia fornirà i suoi modelli di linguaggio al software che controlla uno sciame di droni che dovrebbe consentire ai velivoli di spostarsi in maniera coordinata e sventare così eventuali minacce aeree.
OpenAI e l’intelligenza artificiale in ambito bellico
La tecnologia di OpenAI verrà utilizzata per «valutare le minacce in modo più rapido e accurato, fornendo agli operatori le informazioni di cui hanno bisogno per decisioni adeguate alla situazione tenendosi fuori pericolo». A farlo sapere a Wired è un ex dipendente di OpenAI che ha lasciato l’azienda all’inizio di quest’anno e ha parlato a sotto anonimato per proteggere i propri rapporti professionali. Il contratto con Anduril arriva in seguito a un cambiamento nella politica interna di OpenAI. Infatti, fino a pochi mesi fa, l’azienda era contraria all’uso militare dei propri sistemi di intelligenza artificiale. Molti dipendenti non erano d’accordo con la decisione, ma – ha spiegato l’ex impiegato – non ci sono state proteste.
Lo sciame di droni
Anduril sta sviluppando un avanzato sistema di difesa aerea. Al centro del progetto c’è uno sciame di piccoli velivoli autonomi che si muovono secondo schemi coordinati. Questi piccoli droni sono controllati tramite un’interfaccia alimentata da un modello linguistico di grandi dimensioni, che interpreta i comandi in linguaggio naturale e li traduce in istruzioni che possono essere comprese sia dai droni sia dai piloti umani. Finora, Anduril ha utilizzato modelli di linguaggio open source per i propri test. Attualmente non è chiaro se l’intelligenza artificiale verrà usata solo per controllare i droni o per consentire loro di prendere le proprie decisioni in autonomia. La seconda opzione sarebbe più rischiosa, poiché potrebbe portare i velivoli da guerra a prendere decisioni imprevedibili e li esporrebbe agli errori che tutt’oggi i modelli linguistici commettono.
In copertina: ID 292434745 © Pavel Shlykov | Dreamstime.com