Nel mondo delle intelligenze artificiali sempre più presenti, pronte a fare il passo mancante ed entrare in maniera dirompente nelle nostre vite, succede che alcuni allarmi già lanciati dagli scienziati si stiano trasformando pericolosamente in realtà. L’affidabilità dei cervelloni virtuali, in particolare, resta tutta da verificare e potrebbe dar luogo a problemi non di poco conto man mano che inizieremo ad affidare loro compiti sempre più delicati. Per capire la questione, basta leggere quanto accaduto di recente in America: come riportato dalla testata Popular Science, ChatGPT ha diffamato un conduttore radiofonico della Georgia affermando in modo inesatto che fosse stato accusato di frode e appropriazione indebita di denaro dalla Second Amendment Foundation (SAF). (Continua a leggere dopo la foto)
>>> “Sostituiti dall’intelligenza artificiale”. L’annuncio choc dell’azienda: licenziamento per 200 persone
>>> “Arriva il poliziotto artificiale”. Un’intelligenza computerizzata “anticiperà” i reati. Come funziona e quali sono i rischi
Il conduttore, Mark Walters, ha citato in giudizio la società di intelligenza artificiale OpenAI presso la Corte Superiore della contea di Gwinnett, sostenendo che le dichiarazioni rese dal cervellone creato dalla società fossero “false e dannose”. ChatGPT ha anche affermato che Walters era il tesoriere e direttore finanziario della fondazione, quando in realtà “non ha alcun rapporto di lavoro o rapporto ufficiale con SAF”. (Continua a leggere dopo la foto)
Una causa per diffamazione unica nel suo genere, visto che per la prima volta ChatGPT è stato chiamato in causa di fronte a un tribunale, nonostante qualche errore già evidenziato in passato nelle sue possibili applicazioni. Il cervellone ha ripetuto più volte le false accuse nei confronti di Walters, ampiandole addirittura di fronte a una seconda richiesta. (Continua a leggere dopo la foto)
Walters ha deciso così di chiedere i danni alla società creatrice dell’intelligenza virtuale, senza però che al momento sia stata specificata una cifra per l’eventuale risarcimento. Secondo i media americani, l’esito del processo sarebbe però incerto visto che bisognerebbe dimostare come ChatGPT sapesse della falsità delle informazioni affinché possa dimostrarsi l’effettiva diffamazione. Restano, in ogni caso, i tanti dubbi sulla reale possibilità di affidare ai nuovi cervelloni delle mansioni davvero importanti, vista la facilità con la quale questi errori continuano a ripetersi.
Ti potrebbe interessare anche: “Abbiamo i dati di tutti”, il report dell’intelligence USA inquieta il mondo. Come funzionano i ‘Big Data’