Vai al contenuto

“Discrimina chi ha meno soldi”. Scandalo negli Usa, ecco come funziona davvero l’intelligenza artificiale

Pubblicato il 11/10/2023 19:02 - Aggiornato il 11/10/2023 20:13

Sono molteplici i campanelli d’allarme fatti risuonare dall’utilizzo sempre più diffuso e pervasivo, in vari ambiti, della Intelligenza Artificiale, al punto che le ricadute negative sembrano ampiamente superare gli eventuali benefici, talché Elon Musk e altri mille magnati della Silicon Valley, in marzo, avevano chiesto di sospendere lo sviluppo dell’Intelligenza Artificiale per almeno sei mesi. Un esempio tipico è quello delle prestazioni mediche e la relativa criticità è dettata dal rischio per la privacy del paziente, e non solo. Applicazioni molto utili ai fini del monitoraggio e della diagnosi, ma con un lato “oscuro”. Precisamente questo è ciò che ha spinto il Garante della Privacy, Pasquale Stanzione, a proporre un decalogo circa realizzazione di servizi sanitari a livello nazionale, considerando che l’algoritmo è dotato appunto di Intelligenza artificiale, ma una somma algebrica di dati non può possedere la sensibilità propria dell’essere umano e potrebbe, per il Garante, addirittura “discriminare” taluni pazienti. Vediamo come. (Continua a leggere dopo la foto)
>>> “Ve lo meritate”. Vergogna Europa: l’ultimo attacco all’Italia è vomitevole

AI medicina decalogo garante

Discriminazioni e trasparenza

anzitutto, un esempio lo fornisce lo stesso Stanzione nel decalogo e si riferisce agli Stati Uniti, dove un sistema di Intelligenza artificiale ha stimato il rischio sanitario di oltre 200 milioni di americani. Sarà un caso limite, per via della particolarità del sistema sanitario americano, ma è certamente emblematico: ebbene, è stato osservato che “gli algoritmi tendevano ad assegnare un livello di rischio inferiore ai pazienti afroamericani a parità di condizioni di salute”, poiché la valutazione dell’AI era fondata sulla spesa sanitaria media individuale, la quale è meno elevata per la popolazione afroamericana. La conseguenza? Negare agli afroamericani l’accesso a cure adeguate. Sicché i programmi e i sistemi di Intelligenza artificiale dovranno essere ben calibrati, proprio al fine di ridurre “gli errori dovuti a cause tecnologiche o umane”, come recita il decalogo, e parimenti si dovrà periodicamente verificarne l’efficacia e l’adeguatezza. Vi è, poi, il discorso che riguarda la trasparenza. Due i punti del decalogo dedicati essenzialmente a ciò, ovvero quelli che invocano la trasparenza dei processi decisionali e che le decisioni automatizzate vengano, infine, supervisionate dall’uomo. A riguardo del primo punto, in ultima istanza il paziente dovrebbe essere messo in grado di conoscere i processi decisionali fondati “su trattamenti automatizzati effettuati attraverso strumenti di intelligenza artificiale, in modo da ricevere informazioni precise sulla logica utilizzata per le diagnosi o le cure. È necessario, dunque, il consenso del soggetto interessato. (Continua a leggere dopo la foto)
>>> L’ORÉAL, Infasil, Nivea e tanti altri. Ancora sequestri in Italia. La lista (aggiornata) dei prodotti e dei marchi

AI medicina decalogo garante

Trattamento dei dati e privacy del paziente

Un altro punto sensibile, richiamato nel decalogo del Garante della Privacy, come leggiamo su Il Sole 24 Ore, sottende alla natura giuridica dell’Intelligenza artificiale e dunque alla tutela della privacy del paziente stesso, potenzialmente minata dal trattamento di dati sulla salute. Tale trattamento, pur se effettuato per motivi di interesse pubblico, dovrà essere inserito in un preciso quadro normativo, che a sua volta “individui misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi degli interessati”, scrive ancora il Garante, Pasquale Stanzione. Insomma, il paziente ha diritto di sapere se e come viene utilizzata e che fine faranno i propri dati, e il legislatore, dal canto suo, dovrà proporre misure idonee a tutelare i diritti e le libertà dei pazienti e garantire il rispetto dei principi del Regolamento dell’Unione europea“.

Potrebbe interessarti anche: “Si allarga il fronte della guerra”. Nuovi attacchi, portaerei Usa nel Mediterraneo: cosa sta succedendo

Hai scelto di non accettare i cookie

Tuttavia, la pubblicità mirata è un modo per sostenere il lavoro della nostra redazione, che si impegna a fornirvi ogni giorno informazioni di qualità. Accettando i cookie, sarai in grado di accedere ai contenuti e alle funzioni gratuite offerte dal nostro sito.

oppure