7 aziende di intelligenza artificiale concordano sulle misure di salvaguardia, afferma l’amministrazione Biden

Sette aziende leader nel settore dell’intelligenza artificiale negli Stati Uniti hanno accettato di salvaguardare volontariamente lo sviluppo della tecnologia, ha annunciato venerdì la Casa Bianca, impegnandosi a gestire i rischi dei nuovi strumenti anche se competono sul potenziale dell’intelligenza artificiale.

Sette società – Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI – hanno annunciato formalmente il loro impegno per nuovi standard nelle aree di sicurezza, protezione e fiducia in un incontro con il presidente Biden alla Casa Bianca venerdì pomeriggio.

In brevi osservazioni dalla Sala Roosevelt alla Casa Bianca, Mr. “Dobbiamo essere chiari e consapevoli delle minacce che le tecnologie emergenti pongono alla nostra democrazia e ai nostri valori”, ha affermato Biden.

“È una grave responsabilità. Dobbiamo farlo bene”, ha detto, aggiungendo che i dirigenti delle società. “E c’è un enorme, enorme vantaggio energetico.”

L’annuncio arriva mentre le aziende corrono per superarsi a vicenda con versioni di IA che offrono nuovi e potenti modi per creare testo, foto, musica e video senza input umano. Ma i progressi tecnologici hanno alimentato i timori per la diffusione della disinformazione e terribili avvertimenti sul “pericolo di estinzione” man mano che i computer autocoscienti si evolvono.

Le protezioni volontarie sono solo un passo iniziale e temporaneo mentre i governi di Washington e di tutto il mondo si affrettano a istituire il quadro legale e normativo per lo sviluppo dell’intelligenza artificiale. Gli accordi includono il test dei prodotti per i rischi per la sicurezza e l’utilizzo di filigrane per garantire che i consumatori possano individuare i prodotti generati dall’intelligenza artificiale.

L’annuncio di venerdì riflette l’urgenza dell’amministrazione Biden e dei legislatori di rispondere alla tecnologia in rapida evoluzione, anche se i legislatori lottano per regolamentare i social media e altre tecnologie.

“Nelle prossime settimane, continuerò a intraprendere azioni esecutive per aiutare a guidare l’America verso un’innovazione responsabile”, ha dichiarato Mr. Biden ha detto. “E lavoreremo con entrambe le parti per sviluppare leggi e regolamenti appropriati”.

La Casa Bianca non ha fornito dettagli su un imminente ordine esecutivo presidenziale che affronterebbe una questione più ampia di limitare la capacità della Cina e di altri concorrenti di acquisire nuovi programmi di intelligenza artificiale o i componenti utilizzati per costruirli.

READ  Parti del codice sorgente di Twitter sono trapelate online: Report

Ciò include nuove restrizioni sui semiconduttori avanzati e restrizioni sull’esportazione di modelli su larga scala. Sono difficili da controllare: la maggior parte dei software può essere inserita in una pen drive e comprimere.

Un ordine esecutivo susciterebbe probabilmente più opposizione da parte del settore rispetto agli impegni volontari di venerdì, che secondo gli esperti si riflettono già nelle pratiche delle società coinvolte. Le promesse non ostacolano i progetti delle aziende di IA o lo sviluppo delle loro tecnologie. In quanto obblighi volontari, non vengono applicati dalle autorità di regolamentazione del governo.

Nick Clegg, responsabile degli affari globali presso la società madre di Facebook, Meta, ha dichiarato in una dichiarazione: “Siamo lieti di prendere questi impegni volontari insieme ad altri nel settore. Sono un primo passo importante per garantire che siano stabiliti cani da guardia responsabili per l’IA e creano un modello da seguire per altri governi”.

Nell’ambito delle misure di sicurezza, le società hanno concordato di:

  • Test di sicurezza dei loro prodotti AI, in parte condividendo informazioni sui loro prodotti con esperti indipendenti e governi e altri che cercano di gestire i rischi della tecnologia.

  • Garantire che i consumatori possano identificare i contenuti generati dall’intelligenza artificiale implementando filigrane o altri mezzi per identificare i contenuti generati.

  • Riferire pubblicamente su base regolare le capacità e i limiti dei propri sistemi, comprese le prove dei rischi e dei pregiudizi per la sicurezza.

  • Utilizzare strumenti avanzati di intelligenza artificiale per affrontare le maggiori sfide della società, come la cura del cancro e la lotta al cambiamento climatico.

  • Condurre ricerche sui rischi di pregiudizio, discriminazione e violazione della privacy derivanti dalla diffusione degli strumenti di intelligenza artificiale.

In una dichiarazione che annunciava gli accordi, l’amministrazione Biden ha affermato che le società devono garantire che “l’innovazione non vada a scapito dei diritti e della sicurezza degli americani”.

“Le aziende che sviluppano queste tecnologie emergenti hanno la responsabilità di garantire che i loro prodotti siano sicuri”, ha affermato l’amministrazione in una nota.

Brad Smith, capo di Microsoft e uno dei dirigenti che hanno partecipato alla riunione della Casa Bianca, ha affermato che la sua azienda ha approvato la sicurezza volontaria.

READ  Caucus repubblicani dell'Idaho e del Missouri, Convenzione repubblicana del Michigan

“Muovendosi rapidamente, gli impegni della Casa Bianca creano una base che contribuirà a garantire che la promessa dell’IA superi i suoi rischi”, ha affermato il sig. ha detto Smith.

Anna Mahanju, vicepresidente degli affari globali di OpenAI, lo ha descritto come “parte della nostra continua collaborazione con governi, organizzazioni della società civile e altri in tutto il mondo per far progredire la governance dell’IA”.

Per le aziende, gli standard delineati venerdì hanno due scopi: un tentativo di prevenire o modellare le mosse legislative e normative verso l’autocontrollo e un segnale che stanno affrontando questa nuova tecnologia in modo ponderato e proattivo.

Ma le regole su cui concordano sono spesso il minimo comune denominatore e possono essere interpretate in modo diverso da ciascuna organizzazione. Ad esempio, le aziende si impegnano a garantire una rigorosa sicurezza informatica intorno ai dati e al codice utilizzati per costruire i “modelli di linguaggio” da cui vengono costruiti i programmi di intelligenza artificiale generativa. Ma non ci sono dettagli su cosa significhi e le aziende vorranno comunque proteggere la loro proprietà intellettuale.

Anche le aziende più attente sono vulnerabili. Microsoft, Sig. Una delle società che ha partecipato a un evento della Casa Bianca con Biden la scorsa settimana ha combattuto l’hacking orchestrato dal governo cinese delle e-mail private dei funzionari statunitensi che trattano con la Cina. La Cina sembra aver rubato o in qualche modo ottenuto la “chiave privata” di Microsoft, la chiave per l’autenticazione delle e-mail, uno dei pezzi di codice più gelosamente custoditi dell’azienda.

Di conseguenza, è improbabile che l’accordo rallenti gli sforzi per legiferare e imporre restrizioni sulla tecnologia emergente.

Paul Barrett, vicedirettore dello Stern Center for Business and Human Rights della New York University, ha affermato che occorre fare di più per proteggere la società dai pericoli posti dall’intelligenza artificiale.

“Gli impegni volontari annunciati oggi sono inapplicabili, motivo per cui è imperativo che il Congresso e la Casa Bianca collaborino per emanare immediatamente una legislazione che richieda trasparenza, protezione della privacy e acceleri la ricerca sull’ampia gamma di rischi posti dall’intelligenza artificiale”, ha affermato il sig. Barrett ha detto in una dichiarazione.

READ  I giornali abbandonano il fumetto "Dilbert" dopo le proteste del creatore sui "gruppi di odio" neri

I regolatori europei sono pronti ad adottare le leggi sull’IA entro la fine dell’anno, spingendo molte aziende a promuovere le normative statunitensi. Diversi legislatori hanno introdotto progetti di legge che includono la concessione in licenza alle società di intelligenza artificiale di pubblicare le loro tecnologie, la creazione di un’agenzia federale per supervisionare il settore e i requisiti sulla privacy dei dati. Ma i membri del Congresso non sono d’accordo sulle regole e stanno correndo per istruirsi sulla tecnologia.

I legislatori sono alle prese con come affrontare l’ascesa della tecnologia AI, con alcuni concentrati sui rischi per i consumatori e altri profondamente preoccupati di rimanere indietro rispetto ai rivali, in particolare la Cina, nella corsa per dominare il campo.

Questa settimana, il comitato ristretto della Camera sulla concorrenza strategica con la Cina ha inviato lettere bipartisan alle società di capitale di rischio con sede negli Stati Uniti chiedendo loro di rendere conto dei loro investimenti nelle società cinesi di intelligenza artificiale e semiconduttori. Le lettere arrivano in mesi di vari panel di Camera e Senato che interrogano gli imprenditori e i critici più influenti del settore dell’intelligenza artificiale per decidere quale tipo di protezioni legislative e incentivi il Congresso dovrebbe esplorare.

Molti di quei testimoni, tra cui Sam Altman della start-up di San Francisco OpenAI, hanno sottolineato il potenziale per la nuova tecnologia di causare danni inutili e hanno fatto appello ai legislatori per regolamentare l’industria dell’IA. Ma quel regolamento si sta muovendo lentamente al Congresso, dove molti legislatori stanno ancora lottando per capire esattamente cosa sia la tecnologia AI.

Nel tentativo di migliorare la comprensione dei legislatori, quest’estate il senatore Chuck Schumer, democratico di New York, ha lanciato una serie di sessioni di ascolto per i legislatori per ascoltare funzionari governativi ed esperti sui vantaggi e i rischi dell’intelligenza artificiale in molti campi.

Sig. Schumer ha preparato quest’anno un emendamento alla versione del Senato del disegno di legge sull’autorizzazione alla difesa

Karon Demirjian Rapporto fornito da Washington.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *