34 CONDIVISIONI
video suggerito
video suggerito
Intelligenza artificiale (IA)

Nel futuro ci saranno sempre più esseri umani uccisi da robot

Più i sistemi diventano performanti più rischiano di essere pericolosi, basta pensare alle auto a guida autonoma, ai sistemi di riconoscimento biometrico o ai cani robot. È necessaria una regolamentazione che renda la tecnologia più sicura o almeno più trasparente.
A cura di Elisabetta Rosso
34 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Robert Williams, 25 anni, sale su uno scaffale. È il 1979, siamo dentro la Ford Motor Company e l’impianto di fusione si è appena bloccato. Quando Williams si alza per capire cosa sta succedendo un macchinario di una tonnellata lo colpisce alla testa. Muore all’istante. È il primo uomo a essere ucciso da un robot. Il primo di una lunga serie. Nel 1981 Kenji Urada muore perché ha ostacolato il percorso di un robot malfunzionante della Kawasaki Heavy Industries. Un cannone robotico antiaereo uccide per sbaglio nove soldati sudafricani nel 2007, e l’8 novembre 2023 in Corea del Sud un operaio viene scambiato per una scatola di peperoni e schiacciato da un braccio robotico.

I robot uccidono persone da decenni e l'integrazione dell‘intelligenza artificiale non può che peggiorare lo scenario attuale. Eppure le macchine uccidono solo perché sono stupide. E allora come è possibile che la loro pericolosità sia direttamente proporzionale alla loro intelligenza? È possibile. Pensiamo alle auto a guida autonoma, ai cani robot, ai sistemi biometrici. Il pilota automatico di Tesla ha causato oltre 40 decessi. Spesso le auto hanno avuto problemi con i sistemi di frenata o hanno interpretato male i segnali stradali. Il riconoscimento biometrico commette ancora moltissimi errori. Se non sei un uomo bianco occidentale rischi di non essere riconosciuto correttamente dagli algoritmi e in alcuni casi anche essere arrestato ingiustamente.

L'errore in parte sta nella semantica, non dovremmo parlare di macchine intelligenti, piuttosto, performanti. L'altro passo falso è pensare che la sicurezza progredisca con l'evoluzione dei sistemi. Non è così. Eppure più la tecnologia avanza più ha bisogno di una regolamentazione che renda l’innovazione sicura.

Cose che non impariamo mai

Servono grandi disastri per stimolare le norme per la sicurezza. Lo insegna la Storia. Per esempio se nel 1905 non fosse divampato l’incendio nella fabbrica di scarpe di Grover (morirono 35 persone), le caldaie a vapore non sarebbero state regolamentate. È grazie al naufragio del Titanic che sono state create le norme per le scialuppe di salvataggio e per le radio di bordo. E le uscite di emergenza sono state pensate solo dopo l'incendio della Triangle Shirtwaist Factory nel 1911.

C'è però una lezione che non impariamo mai. Per prevenire gli incidenti serve un processo trasparente, in modo tale che gli esperti possano esaminare tutti i possibili problemi. Eppure i dietro le quinte dei sistemi di intelligenza artificiale che alimenteranno i robot del futuro sono ancora "opachi". Non è chiaro con quali dati vengano addestrati, come vengano sviluppati, e le aziende stanno cercando di ridurre la percezione del pericolo. Per esempio, come ha spiegato il Times, Open AI avrebbe fatto pressioni sull'Unione europea per non far classificare ChatGPT come un modello "ad alto rischio", nel caso il chatbot sarebbe stato sottoposto a severi requisiti legali tra cui trasparenza, tracciabilità e controllo umano.

Robot sempre più performanti e pericolosi

I robot di prossima generazione collaboreranno con gli esseri umani e viaggeranno liberamente negli ambienti lavorativi (in parte sta già succedendo). Come aveva spiegato Kent Massey, direttore dei programmi avanzati di HDT Robotics, al New York Times: “Affinché i robot possano lavorare in modo più produttivo, devono uscire dalle loro gabbie ed essere in grado di lavorare a fianco delle persone. Per raggiungere questo obiettivo in sicurezza, i robot devono diventare più simili alle persone. Devono avere occhi e senso del tatto, oltre all'intelligenza per usare quei sensi”.

Se un'IA costruita per lavorare in modo più produttivo (come spiega Massey) interagisce sulla filiera di un'azienda, il suo obiettivo sarà quello di sfruttare il più possibile ogni passaggio per massimizzare il profitto. Se incontra un ostacolo, umano o non, lo elimina, come insegna il caso Kenji Urada. Di conseguenza, questi robot richiederanno più misure protettive. I robot "intelligenti" dovranno essere progettati per rispettare i valori umani fondamentali e ridurre i bias indesiderati. Devono essere formati su set di dati diversificati e l'analisi degli effetti delle decisioni prese dall'AI deve essere testata in modo approfondito.

Abbiamo tradito la legge di Asimov

Isaac Asimov, scienziato e scrittore, nel romanzo Io, Robot del 1950, ha presentato Le tre leggi della robotica:

  • Un robot non può ferire un essere umano o, per inerzia, permettere che un essere umano venga ferito 
  • Un robot deve obbedire agli ordini impartiti dagli esseri umani tranne nei casi in cui tali ordini siano in conflitto con la Prima Legge
  • Un robot deve tutelare la propria esistenza purché tale tutela non contrasti con la Prima e la Seconda Legge

Ne aggiungerà una quarta, superiore per importanza, e per i robot più sofisticati: la legge zero: “Un robot non può recar danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno”

Ora queste leggi sono state tradite all’origine, in particolare la prima. Inevitabilmente anche la zero. I robot hanno colpito, ferito e ucciso umani. E se dobbiamo immaginare le fabbriche del futuro, con robot alimentanti dall’intelligenza artificiale, sarà ancora più necessario avere una regolamentazione che renda l’innovazione più sicura. Non solo, le leggi dovranno anche chiarire chi è responsabile in caso di danni, incidenti e morti.

34 CONDIVISIONI
387 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views