No, l’IA di Google non è emotiva



Affari CNN

Le aziende tecnologiche promuovono costantemente le loro capacità di intelligenza artificiale in continuo miglioramento. Ma Google ha immediatamente chiuso affermando che uno dei suoi programmi era troppo avanzato.

Un passo Storia che apre gli occhi In un Washington Post di sabato, un ingegnere di Google ha affermato, dopo centinaia di contatti, che si trattava di un sofisticato sistema di intelligenza artificiale Edge non pubblicato. LamdaCredeva che il programma avesse raggiunto uno stato di coscienza.

Nelle interviste e nelle dichiarazioni pubbliche, molti nella comunità dell’IA hanno fatto marcia indietro sull’affermazione dell’ingegnere, con alcuni sottolineando che la sua storia illustra come la tecnologia può fornire qualità umane alle persone. Ma la convinzione di Google che l’IA sarà ragionevole mostra chiaramente sia le nostre paure che le aspettative su ciò che questa tecnologia può fare.

LaMDA, abbreviato in “Language Model for Dialog Applications”, è uno dei tanti sistemi di intelligenza artificiale su larga scala che possono essere addestrati su testi su larga scala da Internet e rispondere a istruzioni scritte. Fondamentalmente, trovano forme e predicono quale parola o parole verranno dopo. Tali sistemi sono diventati Sempre più buono Nel rispondere alle domande e scrivere in modi che fanno sembrare credibile l’uomo – e Google LaMDA presentato in un post sul blog lo scorso maggio Uno che può impegnarsi nel “flusso libero di argomenti infiniti”. Ma i risultati sono ridicoli, diversi, confusi e inquietanti.

L’ingegnere, Blake Lemoine, ha detto al Washington Post di aver condiviso con Google le prove che Lamda fosse emotiva, ma la società non era d’accordo. In una dichiarazione, Google ha affermato lunedì che il suo pannello, che include esperti di etica ed esperti tecnici, aveva “esaminato le preoccupazioni di Blake in conformità con i nostri principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni”.

Il 6 giugno, Google ha pubblicato su Lemoine Media che gli era stato concesso un congedo per dirigente retribuito “in connessione con un’indagine sui protocolli di intelligenza artificiale che ho sollevato in azienda” e che potrebbe essere licenziato “presto”. (Riferendosi all’esperienza di Margaret Mitchell, che finora ha presieduto il team Ethical AI di Google. Google l’ha licenziata all’inizio del 2021 A seguito della sua esplicita opinione su Alla fine del 2020, l’allora copresidente Timnit Kebru si è dimesso. L’ebraico è stato espulso dopo conflitti interni, incluso uno relativo a un documento di ricerca in cui la leadership dell’IA dell’azienda gli diceva di ritirarsi dalla considerazione per la presentazione a una conferenza o di rimuovere il suo nome.)

Un portavoce di Google ha confermato che Lemoine è in congedo esecutivo. Secondo il Washington Post, è stato rilasciato su cauzione per aver violato la politica sulla privacy dell’azienda.

Lemoine non era disponibile per un commento lunedì.

Il continuo emergere di potenti programmi per computer addestrati su enormi dati di Troves ha sollevato preoccupazioni sullo sviluppo e sui protocolli che regolano l’applicazione di tale tecnologia. A volte i miglioramenti sono visti attraverso la lente di ciò che sta arrivando, piuttosto che possibile.

Le risposte delle persone nella comunità di intelligenza artificiale all’esperienza di Lemoine si sono diffuse sui social media durante il fine settimana e generalmente sono arrivate alla stessa conclusione: l’IA di Google non è affatto cosciente. Abeba Birhane, una collega senior presso l’IA di fiducia di Mozilla, L’ha twittato Domenica, “Siamo entrati in una nuova era di ‘questa rete neurale è cosciente’, questa volta espellerà così tanto potere da negare”.

Gary Marcus, fondatore e CEO di Geometric Intelligence, che lo ha venduto a Uber e autore di libri tra cui “Rebooting AI: Building Artificial Intelligence We Can Trust”, ha definito l’idea di Lambda sentimentale. “Follia negli sciocchi” In un tweet. Ha scritto velocemente Sito web Attingere dall’enorme database della lingua indica che tutti questi sistemi di intelligenza artificiale sono compatibili.

In un’intervista con CNN Business lunedì, Marcus ha affermato che il modo migliore per pensare a sistemi come LaMDA è utilizzare la “versione popolare” del software di riempimento automatico che puoi utilizzare per prevedere la parola successiva in un messaggio di testo. Se digiti “Sono così affamato, voglio andare da qualche parte”, potresti suggerire “ristorante” come parola successiva. Ma è una previsione fatta usando le statistiche.

“Anche con gli steroidi, nessuno dovrebbe pensare che l’autorealizzazione abbia senso”, ha detto.

In un’intervista, il fondatore e amministratore delegato Kebru Istituto di ricerca sull’intelligenza artificiale distribuitoO DAIR, intelligenza artificiale cosciente o intelligenza artificiale generale – un’idea che si riferisce all’IA in grado di svolgere compiti simili a quelli umani e comunicare con noi in modi significativi – Lemoine è stata afflitta dalle affermazioni di molte aziende secondo cui non è lontana.

Ad esempio, ha notato che Ilia Sutskaveer è il co-fondatore e il capo scienziato di OpenAI. L’ha twittato A febbraio, ha affermato: “Le grandi reti neurali di oggi potrebbero essere un po’ più vigili”. La scorsa settimana, il vicepresidente e collega di Google Research, Blaze Aguero y Arcos Scritto su The Economist Quando ha iniziato a usare Lambda l’anno scorso, ha detto: “Mi sentivo troppo come se stessi parlando con qualcosa di brillante”. (Il pezzo ora contiene il riferimento di un autore all’intervista di Lemo con il Washington Post, sostenendo che il chatbot LMDA di Google era stato “cambiato emotivamente” in congedo.)

“Quello che sta succedendo è usare più dati, usare più calcoli, dire che hai creato questa cosa comune, che risponde a tutte le tue domande o qualsiasi altra cosa, quella è la batteria che stai suonando”, ha detto Kebru. . “Se è così, come ti chiedi quando questa persona lo porterà agli estremi?”

Google, nel suo rapporto, sottolinea che LaMDA è soggetta a 11 “revisioni personali delle politiche sull’IA” e “rigorose ricerche e test sulla sua capacità di produrre rapporti di qualità, sicurezza e basati sui fatti”. “Naturalmente, alcuni nella più ampia comunità di IA stanno considerando il potenziale a lungo termine dell’IA emotiva o generale, ma non ha senso farlo umanizzando i modelli di dialogo odierni, non sono emotivi”, ha affermato la società.

“Centinaia di ricercatori e ingegneri hanno parlato con Lambda e nessun altro nel modo in cui Blake è a conoscenza delle affermazioni diffuse o dell’umanizzazione dell’LMDA”, ha affermato Google.

READ  Il TKO di Kervonda Davis di Rolando Romero cattura i social media

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.