x

x

Vai al contenuto

“L’Intelligenza artificiale come le armi nucleari”: le parole shock del Ceo di OpenAI

Pubblicato il 16/05/2023 21:32 - Aggiornato il 25/05/2023 09:02

Il padre di ChatGpt sui rischi dell’intelligenza artificiale: “pericolosa come una bomba atomica”. Se è lo stesso Ceo di OpenAI, Sam Altman, a non essere tranquillo, come potremo esserlo noi? Ci siamo più volte occupati dei potenziali, enormi, rischi che uno sviluppo sregolato della cosiddetta Intelligenza Artificiale può comportare. Ora, in audizione dinanzi alla sottocommissione Giustizia del Senato statunitense, esprime tutti si suoi timori il 38enne fondatore della società che ha creato il tanto discusso ChatGpt. OpenAI, per inciso, è finanziata per oltre 10 miliardi di dollari dalla Microsoft del solito, onnipresente e onnipotente Bill Gates. Si teme di aver creato un “mostro”, dunque, e d’altronde già Elon Musk e altri mille magnati della Silicon Valley, in marzo, avevano chiesto di sospendere lo sviluppo dell’Intelligenza Artificiale per almeno sei mesi, in modo da poter regolamentarla. In particolare, Altman, durante l’audizione, ha messo in guardia circa un probabile utilizzo dell’IA per diffondere fake news nella campagna presidenziale del 2024. Quindi: “L’Intelligenza artificiale va messa sotto controllo come le armi nucleari“, si legge su la Repubblica. Anche il senatore statunitense Mike Gallagher, a capo della commissione del Congresso USA sulla Cina, ravvede nell’Intelligenza Artificiale “uno strumento o un’arma per perfezionare la sua sorveglianza orwelliana tecno-totalitaria”. Tornando al Ceo di OpenAI, Sam Altman si è detto disponibile a collaborare per redigere regolamenti chiari: “Ritengo che ci sia bisogno di nuove regole, di linee guida. Possiamo e dobbiamo lavorare insieme per identificare e gestire i potenziali pericoli”. (Continua a leggere dopo la foto)
>>> “A rischio milioni di posti di lavoro”. Perché il robot di Elon Musk ora fa davvero paura (VIDEO)
>>> “I poveri? Saranno curati da un’intelligenza artificiale”. La proposta choc che arriva dalla multinazionale

il padre di ChatGpt sui rischi dell'intelligenza artificiale - arma nucleare

Anche perché, come ha aggiunto: “La mia maggiore paura è che possa creare significativi danni”. Essendo ancora nelle fasi iniziali, l’Intelligenza Artificiale generativa, “può commettere degli errori”, e tra gli “errori” non possiamo non paventare l’abnorme rischio di un suo uso distorto, se finisse in mani sbagliate. Come fossimo in un film di fantascienza. Da qui l’invito di Sam Altman a valutare la possibile concessione di licenze per lo sviluppo di modelli di intelligenza artificiale, senza però soffocare la crescita delle piccole start up del settore. Sarebbe necessario affidarsi a un organismo internazionale tipo l’International Atomic Energy Agency con gli armamenti nucleari, dicevamo, secondo Altman, giacché “se questa tecnologia va male, può andare molto male”. Un altro rischio non da poco, e anche di questo abbiamo già scritto, è quello di una disoccupazione di massa, con 300 milioni di posti di lavoro già dichiarati a rischio di essere rimpiazzati dall’AI, secondo un recente report di Goldman Sachs. Ecco perché il presidente della sottocommissione, Richard Blumenthal, ha spiegato che tra le sue preoccupazioni più grandi c’è la perdita del lavoro in massa. (Continua a leggere dopo la foto)
>>> Arriva la tassa Ue sull’eredità: come funzionerà (e perché Bruxelles vuole imporcela a tutti i costi)
>>> “Risposte assurde”. La prima intervista all’intelligenza artificiale che sta conquistando il mondo

il padre di ChatGpt sui rischi dell'intelligenza artificiale - armi nucleari

“I miei peggiori timori sono che causiamo danni significativi – noi, il campo, l’industria tecnologica – al mondo intero“, ancora nelle parole di Sam Altman. E non è affatto una affermazione confortante, considerando la fonte da cui proviene.

Potrebbe interessarti anche: “Ecco dove andrà Giletti”. L’indiscrezione: in che ruolo lo vedremo