x

x

Vai al contenuto

“Ha sbagliato tutto”. L’intelligenza artificiale fa le prime “vittime”. Allarme negli Usa

Pubblicato il 19/06/2023 20:15 - Aggiornato il 19/06/2023 21:32

Ci sarà pure un motivo se i pericoli insiti nell’utilizzo dell’Intelligenza artificiale sono stati denunciati dallo stesso ceo di OpenAI, così come da Elon Musk e altri big della Silicon Valley. Gli algoritmi lavorano sulla somma algebrica dei dati: questa necessaria premessa, di natura puramente tecnica, essa stessa dimostra che un computer o una macchina non potranno mai sostituire l’uomo, il quale è dotato anche di una coscienza che permetta di interpretare e contestualizzare tali dati, quello che definiamo pensiero critico. E questo – sebbene non ci sarebbe neppure bisogno di precisarlo – è tanto più vero nell’ambito sanitario: se ne sono accorti i medici dell’unità di oncologia alla Davis Medical Center dell’Università della California. Approfondiamo, ora, la vicenda che giunge d’oltreoceano e che ci dimostra come la cosiddetta Intelligenza artificiale sia tutto meno che infallibile. (Continua a leggere dopo la foto)
>>> Concorsi Inps, requisiti e posti: 10mila assunzioni nel 2023

IA medici errore infermiera

Cosa è successo

L’Intelligenza artificiale, in ambito medico, appare più un pericolo che un aiuto. Secondo il portale Innovazione di Tiscali, potrebbe diventare un supporto importante per i medici: potrebbe, ad esempio, “analizzare grandi quantità di dati medici”, ma, come detto, i dati vanno poi contestualizzati e storicizzati. Melissa Beebe (nella foto in basso), un’infermiera di lungo corso dell’ospedale californiano, è colei che ha salvato un paziente dalle conseguenze, potenzialmente disastrose, di un errore della Intelligenza artificiale, come si legge su la Repubblica. A un paziente di oncologia era stata diagnosticata una infezione dall’algoritmo che muove i macchinari dell’unità oncologica e che, secondo i più “fanatici”, dovrebbe un giorno non lontano sostituire gli infermieri come Melissa Beebe. Eppure, vi era qualcosa di strano e di cui la stessa infermiera Melissa si è prontamente accorta, fortunatamente. L’allarme scattato per la presenza di globuli bianchi nel sangue era, effettivamente, compatibile con una infezione in corso. Ma il fatto che il paziente fosse affetto da leucemia non era stato considerato dall’algoritmo, che ha essenzialmente analizzato i parametri standard, facendo scattare l’allarme. “Lavoro con malati di cancro da quindici anni e so come appare un paziente colpito da setticemia“, ha riferito Melissa Beebe al Wall Street Journal. La leucemia, infatti, può causare emocromo simile, con una elevata quantità di globuli bianchi. Sicché, come sospettava l’infermiera, l’algoritmo si era sbagliato. (Continua a leggere dopo la foto)
>>> Soldi per far saltare le liste d’attesa, arrestato un primario. I fatti

IA medici errore infermiera

Fidarsi dell’uomo o della macchina?

“Non sto demonizzando la tecnologia”, ha detto la donna al quotidiano statunitense. “Tuttavia, provo angoscia morale quando so la cosa giusta da fare e non posso farlo”, ha poi aggiunto. Infatti, l’intelligenza artificiale può analizzare dati a una velocità dieci volte superiore a quella umana, ma non può capire se un paziente sta davvero soffrendo o avverte dolore. Precisamente in questo è racchiuso il “Gap emotivo” di cui parla il Wall Street Journal. Sicché “L’intelligenza artificiale – commenta la preoccupante vicenda Kenrick Cato, docente di Infermieristica all’Università della Pennsylvania – dovrebbe fare da supporto, non da rimpiazzo di esperti”. L’utilizzo di modelli predittivi basati su algoritmi di intelligenza artificiale è sempre più diffuso negli ospedali e nelle strutture sanitarie degli Stati Uniti e, naturalmente, i sanitari in carne ed ossa ne denunciano i limiti. Potremmo, se ci passate il termine, parlare di “neo-luddismo”, ampiamente giustificato e comprensibile. In una ricerca svolta dal sindacato di categoria, il National Nurses United, è risultato che il 24 per cento degli intervistati ha dichiarato di aver preso una decisione sulla base delle indicazioni dell’algoritmo, nonostante “non fosse ritenuta nel miglior interesse del paziente”. Tra costoro, il 17 per cento ha detto di aver potuto scavalcare il robot, mentre il 31 per cento non ha potuto. Un altro 34 aveva dovuto chiedere il permesso al supervisore o al medico di reparto. (Continua a leggere dopo la foto)
>>> Creme solari, la classifica delle migliori per la nostra pelle

IA medici errore infermiera

L’Intelligenza artificiale in banca

Dedichiamo spazio anche a un altro settore in cui l’Intelligenza artificiale sta trovando spazio, secondo l’inquietante “profezia” per cui, entro sette anni, saranno soppiantati dalla Intelligenza artificiale qualcosa come trecento posti di lavoro, analisi contenuta nel report di Goldman Sachs intitolato The Potentially Large Effects of Artificial Intelligence on Economic Growth. Parliamo del settore bancario. Questo nuovo allarme è stato lanciato a margine di una tavola rotonda tenutasi durante il Congresso nazionale del sindacato bancario Fabi, dal segretario generale, Lando Sileoni. Egli ha espresso i suoi timori, raccolti dall’Huffington Post. “Le banche più aggressive – argomenta Lando Sileoni – potrebbero creare dei contenitori specifici dove mettere a lavorare i dipendenti con tecnologie legate all’intelligenza artificiale, preambolo di una esternalizzazione che noi non possiamo accettare”. E tutto questo, già in un’ottica di breve periodo, appare una grave incognita: “Nei prossimi quattro anni decapiterebbe il personale del 40-50 per cento“, ha affermato ancora il segretario del sindacato dei bancari.

Potrebbe interessarti anche: Case “green”, l’allarme di Confedilizia: compravendite giù del 10%