Vai al contenuto

Ecco come l’intelligenza artificiale si mette al servizio del crimine: la sconcertante scoperta della polizia

Pubblicato il 25/10/2023 14:17

Il lato oscuro dell’intelligenza artificiale. Da tempo si discute sulle possibili, gravi conseguenze della scelta di delegare ai “cervelloni” funzioni sempre più importanti, con il rischio di non poter poi prevedere le loro mosse. Scenario allarmistici che hanno iniziato a prendere forma, stando a quanto dichiarato dall’ente di vigilanza sulla sicurezza Internet Watch Foundation (IWF): “Abbiamo trovato quasi 3.000 immagini di abusi create dall’intelligenza artificiale che violano la legge del Regno Unito”. L’organizzazione ha segnalato come immagini esistenti di vittime di abusi sessuali nella vita reale siano state in qualche modo “memorizzate” dall’Ia, che ne ha poi riprodotte di nuove, artificiali, partendo da quel materiale. (Continua a leggere dopo la foto)
“Robot dotati di cervello entro il 2025”. L’annuncio choc, tra sorpresa e polemiche: cosa ci aspetta
>>> “Violenze sessuali su un 13enne”. In manette il noto youtuber da oltre 1 milione di follower: accuse pesantissime

intelligenza artificiale crimine

Come riportato dal Guardian, l’intelligenza artificiale ha prima utilizzato immagini di celebrità per “ringiovanirle”, applicando filtri ed effetti vari, poi ne ha create altre in cui le stesse star erano riprodotte in versione bambino al centro di scenari di abuso sessuali. (Continua a leggere dopo la foto)

intelligenza artificiale crimine

Non solo: in altre situazioni, esempi di materiale pedopornografico (CSAM) includevano l’uso di strumenti di intelligenza artificiale per “spogliare” immagini di bambini vestiti trovate online. L’IWF aveva avvertito già in estate che stavano iniziando a emergere prove di abusi causati dall’intelligenza artificiale, precisando che il suo ultimo rapporto aveva mostrato un’accelerazione nell’uso della tecnologia. (Continua a leggere dopo la foto)

intelligenza artificiale crimine

Susie Hargreaves, amministratore delegato dell’IWF, ha affermato: “All’inizio di quest’anno, abbiamo avvertito che le immagini dell’intelligenza artificiale potrebbero presto diventare indistinguibili dalle immagini reali di bambini che subiscono abusi sessuali e che potremmo iniziare a vedere queste immagini proliferare in numero molto maggiore. Ora abbiamo superato quel punto”. L’ente ha affermato di aver visto anche prove di immagini generate dall’intelligenza artificiale vendute online.

Ti potrebbe interessare anche: ULTIM’ORA “È stata una nave cinese”: la scoperta choc dietro l’incidente