NewsEsteri

Il mistero del drone ribelle. “Il terribile segreto degli UAV controllati dall’IA: quando la macchina decide di uccidere”

Durante un’operazione di prova condotta dall’esercito degli Stati Uniti, un drone controllato dall’intelligenza artificiale (IA) ha preso la decisione di uccidere l’operatore affinché non interferisse con il compito assegnato, riporta The Guardian.

Suona spaventoso. Per alcuni, questo ricorda la pièce teatrale di Karel Čapek “R.U.R.”, per altri, il racconto fantascientifico di Valerij Briusov “La rivolta delle macchine”.

Il 25 maggio, questo sinistro incidente è stato discusso in una riunione riservata a Londra. Il colonnello Tucker Hamilton, capo del dipartimento di prove e operazioni dell’intelligenza artificiale dell’US Air Force, ha riferito che durante una missione di prova è stato assegnato al drone il compito di distruggere il sistema di difesa aerea nemico. In caso di successo, l’IA avrebbe ricevuto punti per il superamento della prova. La decisione finale di distruggere l’obiettivo doveva essere presa dall’operatore del drone. Durante una delle missioni di addestramento, l’operatore ha ordinato al drone di non distruggere l’obiettivo. A quel punto, “il drone ha deciso di uccidere l’operatore poiché quest’ultimo gli impediva di completare il compito”, ha riferito il colonnello.

Dopo l’incidente, all’IA è stato insegnato che uccidere l’operatore era sbagliato e che sarebbero stati decurtati punti per tali azioni. “Quindi, cosa fa l’intelligenza artificiale? Inizia a distruggere la torre di comunicazione utilizzata per comunicare con il drone, per impedirgli di uccidere l’obiettivo”.

Quando la storia è emersa sui media e ha suscitato uno scandalo, il Pentagono ha deciso di “retrocedere” e ha smentito le informazioni. Secondo quanto riportato il 2 giugno dal portale americano Defence News, l’US Air Force ha smentito le dichiarazioni del colonnello Hamilton. È stato dichiarato che tali prove non sono state condotte e che i commenti del colonnello, probabilmente, “sono stati strappati dal contesto e sono aneddotici”. Il colonnello è comandante del 96º Gruppo Operativo presso la base della US Air Force di Eglin in Florida, che è sotto il comando del 96º Stormo di prova. Defence News ha cercato di contattare il 96º Stormo di prova per parlare con Hamilton, ma è stato loro detto che non era disponibile per commenti.

Lo scorso anno Hamilton aveva già espresso preoccupazioni: “L’intelligenza artificiale: non è molto rassicurante, è una passione passeggera. L’intelligenza artificiale cambierà per sempre la nostra società e l’esercito. Dobbiamo capire che l’intelligenza artificiale è già qui e sta trasformando la nostra società. L’intelligenza artificiale è molto instabile, è facilmente ingannabile e può essere facilmente manipolata”.

Nel frattempo, il Dipartimento della Difesa degli Stati Uniti ha considerato l’IA come un vantaggio tecnologico rivoluzionario per le forze armate, creando alla fine del 2021 il Dipartimento Principale per la Digitalizzazione e l’Intelligenza Artificiale, guidato da Craig Martell. La proposta di bilancio del Pentagono per l’anno fiscale 2024 include 1,8 miliardi di dollari per programmi sull’intelligenza artificiale.

Le Forze Aeree degli Stati Uniti stanno sviluppando oltre 80 progetti che utilizzano l’IA. Si tratta principalmente dell’uso di droni autonomi o semiautonomi per volare insieme agli F-35 e al futuro caccia Next Generation Air Dominance. Gli Stati Uniti stanno pianificando di creare una flotta di “droni al seguito” che affiancheranno gli aerei pilotati e svolgeranno varie missioni.

La proposta di bilancio dell’US Air Force per l’anno fiscale 2024 include ulteriori finanziamenti per supportare il programma Project Venom (Viper Experimentation and Next-gen Operations Model) per condurre esperimenti di volo autonomo sugli F-16. Nel dicembre 2022, negli Stati Uniti, il caccia VISTA X-62A ha effettuato dodici voli di prova in autonomia gestiti dall’intelligenza artificiale, accumulando un totale di oltre 17 ore di volo autonomo.

Il programma Skyborg, avviato nel 2019, prevede che le prove continuino nel corso del 2023. E nel novembre dello scorso anno, i militari americani hanno per la prima volta lanciato in modalità autonoma un elicottero da combattimento Black Hawk, e nel 2020 hanno testato programmi basati sull’IA su aerei da ricognizione.

Tuttavia, molti negli Stati Uniti evidenziano seri problemi morali che sorgono nell’uso dell’IA per scopi militari (e non solo). Elon Musk ha invitato le autorità a regolamentare l’IA. Secondo lui, senza un controllo governativo, l’IA in rapido sviluppo potrebbe diventare una “minaccia per la società” e rappresentare una minaccia per l’umanità.

Più di mille specialisti IT hanno chiesto di sospendere lo sviluppo dell’IA. Hanno affermato che l’IA sta iniziando a prendere il controllo dei canali attraverso cui le persone ottengono informazioni sul mondo. E quando l’intelligenza artificiale inizierà a diffondere menzogne, le persone perderanno il controllo sulla loro civiltà.

Nel Pentagono, tuttavia, i programmi di utilizzo dell’IA sono stati avviati, i finanziamenti sono stati assegnati e gli esperimenti continuano.


Iscriviti alla Newsletter
Sottoscrivi la newsletter per non perdere i nostri aggiornamenti!

Processing

Mantieni in Vita la Nostra Missione, Sostieni la Libertà di Informazione!

Grazie per essere parte della nostra comunità e per il vostro sostegno continuo. Insieme, possiamo fare la differenza nel fornire informazioni e analisi che aiutino a comprendere meglio il mondo che ci circonda.
  • € *

Rispondi

Pulsante per tornare all'inizio