AI “Godfather” Geoffrey Hinton avverte delle insidie ​​mentre lascia Google

Titolo del video,

GUARDA: Geoffrey Hinton, il “Padrino” dell’IA, racconta alla BBC dei pericoli dell’IA mentre lascia Google

Un uomo ampiamente considerato come il padre dell’intelligenza artificiale (AI) ha lasciato il suo lavoro, avvertendo dei pericoli posti dagli sviluppi nel campo.

Jeffrey Hinton, 75 anni, ha annunciato le sue dimissioni da Google in una dichiarazione al New York Times, dicendo che ora si rammarica del suo lavoro.

Ha detto alla BBC che alcuni dei rischi dei chatbot di intelligenza artificiale sono “molto spaventosi”.

“In questo momento, non sono più intelligenti di noi, per quanto posso dire. Ma penso che potrebbero esserlo presto.”

“Ho 75 anni, quindi è ora di andare in pensione”, ha detto il dottor Hinton alla BBC, ammettendo che la sua età ha avuto un ruolo nella sua decisione di lasciare il gigante della tecnologia.

La ricerca pionieristica del Dr. Hinton sulle reti neurali e il deep learning ha aperto la strada agli attuali sistemi di intelligenza artificiale come ChatGPT.

Nell’intelligenza artificiale, le reti neurali sono sistemi che apprendono ed elaborano informazioni in modo molto simile al cervello umano. Consentono alle IA di imparare dall’esperienza, proprio come una persona. Questo si chiama apprendimento profondo.

Uno psicologo cognitivo e scienziato informatico britannico-canadese ha dichiarato alla BBC che i chatbot supereranno presto la quantità di informazioni che il cervello umano può contenere.

“Quello che vediamo ora è qualcosa come GPT-4 che eclissa il livello di buon senso di una persona e lo nasconde per molto tempo. Razionalmente, non è così buono, ma lo fa già. Semplice ragione”, ha detto.

“E dato il ritmo dei progressi, ci aspettiamo che le cose migliorino molto rapidamente. Quindi dovremmo preoccuparcene”.

In un articolo del New York Times, il dottor Hinton ha fatto riferimento a “cattivi attori” che cercano di usare l’intelligenza artificiale per “cattive azioni”.

Quando gli è stato chiesto dalla BBC di elaborare, ha risposto: “È una specie di scenario peggiore, una specie di scenario da incubo.

“Ad esempio, puoi immaginare alcuni cattivi attori [Russian President Vladimir] Putin ha deciso di dare ai robot la possibilità di creare i propri obiettivi secondari”.

Questo potrebbe alla fine creare “obiettivi secondari come ‘Voglio più potere'”, ha avvertito lo scienziato.

Ha aggiunto: “Sono giunto alla conclusione che l’intelligenza che stiamo sviluppando è molto diversa dall’intelligenza che abbiamo.

“Siamo sistemi biologici e questi sono sistemi digitali. E la grande differenza è che con i sistemi digitali ci sono più copie dello stesso peso, lo stesso modello del mondo.

“E tutte queste repliche possono imparare individualmente, ma condividere le loro conoscenze all’istante. Quindi è come se avessi 10.000 persone, e ogni volta che uno impara qualcosa, tutti lo sanno automaticamente. E questi chatbot possono imparare più di qualsiasi persona.”

Parlando in privato alla BBC, Matt Clifford, capo dell’Agenzia per la ricerca avanzata e l’innovazione del Regno Unito, ha affermato che l’annuncio del dottor Hinton “sottolinea il ritmo delle capacità dell’IA”.

“C’è un enorme vantaggio in questa tecnologia, ma il mondo ha bisogno di investire pesantemente e con urgenza nella sicurezza e nel controllo dell’IA”, ha affermato.

Il dottor Hinton non ha voluto criticare Google e ha insistito sul fatto che il gigante della tecnologia fosse “molto responsabile”.

“In realtà voglio dire alcune cose positive su Google. E se non lavorassi in Google sarebbero più credibili.”

Jeff Dean, capo scienziato di Google, ha dichiarato in una dichiarazione: “Siamo impegnati in un approccio responsabile all’IA. Continuiamo a imparare a comprendere i rischi emergenti mentre innoviamo con coraggio”.

Titolo del video,

Vedi: Cos’è l’Intelligenza Artificiale?

READ  'Shazam 2' ha incassato 11,7 milioni di dollari il giorno dell'apertura - Variety

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *