Le decisioni prese dai sistemi di intelligenza artificiale usati per scopi bellici dovrebbero essere “tracciabili” e “governabili”, queste le indicazioni del Joint Artificial Intelligence Center del Pentagono.
Se i sistemi automatizzati danno dimostrazione di comportamenti inattesi “deve esserci un modo per disimpegnarli o disattivarli”, queste le parole del Lt. Gen. Jack Shanahan, direttore del centro che ha pubblicato i nuovi principi etici sull’uso dei sistemi di intelligenza artificiale. Tali principi prevedono che le persone “esercitino livelli appropriati di giudizio e cura” nell’implementazione e utilizzo dei sistemi di intelligenza artificiale, come ad esempio quelli che scansionano le immagini aeree per cercare obiettivi.
Una direttiva militare del 2012 prevede che gli umani detengano il controllo delle armi automatizzate, in altre parole la decisione se fare fuoco o meno dovrà spettare a una persona. Tuttavia questo non comprende gli usi più ampi dell’AI, che possono comunque influire su decisioni belliche. Come ad esempio un sistema automatizzato che da un’immagine aerea confonde un edificio civile per una base militare. Davvero l’umano che dovrà dare l’ok all’azione cinetica ripercorrerà a ritroso tutte le decisioni dei sistemi artificiali per assicurarsi che siano corrette?
Probabilmente no. Per questo motivo i principi etici del Department of Defense si applicheranno sia al software AI usato in combattimento sia a quello usato per altri scopi, come la raccolta di informazioni e sorveglianza, oppure gli algoritmi che ottimizzano gli interventi manutenzione su navi o aerei.
In tutto i principi da seguire sono cinque:
Responsabile. Il personale umano sarà responsabile dello sviluppo, della distribuzione e dell’uso delle tecnologie di intelligenza artificiale.
Equo. Il Pentagono ridurrà al minimo il bias dell’AI.
Tracciabile. Gli algoritmi di intelligenza artificiale saranno sviluppati in modo tale che il personale umano abbia una conoscenza adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi. In pratica si cercherà di evitare il più possibile il fenomeno della “black box”, ovvero dell’intelligenza artificiale che giunge a conclusioni difficilmente spiegabili.
Affidabile. L’AI usata dal Pentagono avrà compiti ben specifici e definiti, la sua sicurezza sarà sottoposta a test.
Governabile. Gli esseri umani saranno in grado di spegnere o disattivare l’AI se noteranno comportamenti inattesi.
L’approccio segue le raccomandazioni formulate lo scorso anno dal Defense Innovation Board, un gruppo consultivo guidato dall’ex CEO di Google Eric Schmidt.
Per approfondire: The Pentagon now has 5 principles for artificial intelligence