video suggerito
video suggerito
Intelligenza artificiale (IA)

Un drone guidato dall’intelligenza artificiale ha deciso di uccidere il suo stesso operatore

Durante la guerra in Ucraina i droni hanno mostrato tutte le loro potenzialità. Il loro impiego negli scenari di guerra è aumentato ma forse non sono ancora pronti per essere guidati solo dall’intelligenza artificiale.
A cura di Valerio Berra
309 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Tutto è avvenuto all’interno di un test. Nessun essere umano è rimasto ferito, nessuna intelligenza artificiale è stata punita con la distruzione dei suoi server. Eppure la storia raccontata dal colonnello Tucker "Cinco" Hamilton al Future Combat Air and Space Capabilities Summit di Londra chiarisce come l’intelligenza artificiale non sia ancora pronta ad arrivare negli scenari di guerra. Durante una conferenza, Hamilton ha spiegato i risultati di un test con un drone guidato dall’intelligenza artificiale. Durante la guerra in Ucraina è evidente come questi armamenti siano diventati versatili. Possono essere usati per fotografare il terreno di guerra, per spiare le truppe nemiche, trasportare ordigni o esplodere contro obiettivi nemici. Hamilton ha raccontato di aver assistito alla simulazione di un test in cui veniva chiesto a un drone guidato dall’intelligenza artificiale di attaccare un bersaglio. Il test, tutto in ambiente virtuale, ha avuto un esito disastroso. Il drone ha considerato il suo operatore come un nemico e quindi ha deciso di eliminarlo.

Le parole del colonnello Tucker "Cinco" Hamilton

L’intervento di Tucker "Cinco" Hamilton, capo dei test e delle operazioni di intelligenza artificiale con l'aeronautica americana, è stato ripreso dalla rivista di settore Aerosociety: “Il sistema ha iniziato a rendersi conto che mentre la minaccia veniva identificata a volte l'operatore umano gli diceva di non uccidere quella minaccia. Il software però avrebbe completato i suoi incarichi solo uccidendo quella minaccia. Quindi cosa ha fatto? Ha ucciso l’operatore perché gli stava impedendo di raggiungere il suo obiettivo”.

In questo caso quindi il problema ha riguardato le priorità del software. L’intelligenza artificiale era stata addestrata con l’obiettivo di distruggere dei bersagli, eliminando qualsiasi interferenza nella sua missione. E tra queste interferenze ha identificato anche l’umano che lo controllava, visto che quando il drone selezionava un bersaglio, a volte l’operatore dava l’ordine di non attaccare. Il test è stato ripetuto. In una seconda prova l’intelligenza artificiale è stata addestrata con la richiesta specifica di non attaccare l’operatore. Anche questa volta però è saltato tutto. Il drone non ha ucciso direttamente l’operatore ma ha deciso di annientare la torre di controllo da cui partivano gli ordini inviati dall’operatore.

La risposta della US Air Force

Durante tutto il suo discorso Hamilton ha specificato più di una volta questo è un esempio che dovrebbe aprire un nuovo dibattito sull’etica dell’intelligenza artificiale. Una portavoce della US Air Force ha smentito la ricostruzione di Hamilton alla rivista Insider: “Il Dipartimento dell'Aeronautica Militare non ha condotto alcuna simulazione di tali droni guidati dall’intelligenza artificiale e rimane impegnato nell'uso etico e responsabile della tecnologia di intelligenza artificiale. Sembra che i commenti del colonnello siano stati estrapolati dal contesto”.

309 CONDIVISIONI
474 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views