x

x

Vai al contenuto

“Si è ribellato e lo ha ucciso”. La reazione choc del drone controllato dall’intelligenza artificiale

Pubblicato il 03/06/2023 10:03 - Aggiornato il 06/06/2023 10:03

Quali pericoli si nascondo dietro l’intelligenza artificiale, i nuovi “cervelloni” che tante aziende stanno già iniziando a introdurre, sostituendo lavoratori umani? A giudicare dalle ultime notizie arrivate dagli Usa, parecchie. Un militare, il colonnello Tucker Hamilton, ha infatti riportato l’esito di un test di simulazione in un cui un drone controllato dall’Ia avrebbe addirittura deciso di “uccidere” (virtualmente, sia chiaro) il suo operatore per impedirgli di interferire con l’obiettivo della sua missione. Come sottolineato dal Guardian, l’aeronautica americana ha subito smentito l’accaduto, limitandosi a specificare che “un drone controllato dall’intelligenza artificiale ha utilizzato strategie altamente inaspettate durante un test per raggiungere il suo obiettivo”. (Continua a leggere dopo la foto)
>>> “Arriva il poliziotto artificiale”. Un’intelligenza computerizzata “anticiperà” i reati. Come funziona e quali sono i rischi
>>> “Ecco come potrebbero ucciderci tutti”. L’incredibile appello dei creatori dell’intelligenza artificiale

drone intelligenza artificiale

Non è la prima volta, però, che si parla di errori clamorosi dell’intelligenza artificiale durante le simulazioni, in alcuni casi “letali” per i suoi stessi controllori. In quest’ultimo caso, secondo il colonnello Tucker “Cinco” Hamilton durante un test un drone alimentato dall’intelligenza artificiale avrebbe attaccato ogni bersaglio tra lui e il suo obiettivo, senza fare distinzioni. (Continua a leggere dopo la foto)

“Il sistema ha iniziato a rendersi conto che mentre identificava la minaccia, a volte l’operatore umano gli diceva di non uccidere quella minaccia – ha spiegato Hamilton, in passato a capo di diversi test svolti dall’aeronautica – Il suo obiettivo, però, era proprio quello di eliminare quelle minacce. Come ha reagito di fronte a questi ordini contrapposti? Ha ucciso il suo operatore umano e proseguito verso l’obiettivo”. (Continua a leggere dopo la foto)

Successivamente, al sistema è stata vietata la possibilità di aprire il fuoco contro il suo operatore. “Allora cosa ha fatto? Ha distrutto la torre di comunicazione che l’operatore utilizzava per dargli ordini”. Lo stesso Hamilton ha messo quindi in guardia l’esercito: affidarsi troppo all’intelligenza artificiale può essere estremamente pericoloso”. La portavoce dell’aeronautica americana Ann Stefanek ha negato che una simile simulazione abbia avuto luogo.

Ti potrebbe interessare anche: Tra nuovi diritti e intelligenza artificiale, chi difende l’uomo?