6 giugno 2024

OpenAI Insider stima il 70%di probabilità che l'IA distrugga o danneggi catastroficamente l'umanità

"Il mondo non è pronto e noi non siamo pronti"
Dopo che gli ex e gli attuali dipendenti di OpenAI hanno rilasciato una lettera aperta in cui affermavano di essere stati messi a tacere contro la sollevazione di problemi di sicurezza, uno dei firmatari della lettera ha fatto una previsione ancora più terrificante: che le probabilità che l'IA distruggerà o danneggerà catastroficamente l'umanità sono maggiori di un lancio di monete.

In un intervista con il New York Times, l'ex ricercatore di governance OpenAI Daniel Kokotajlo ha accusato la compagnia di ignorare i monumentali rischi posti dall'intelligenza generale artificiale (AGI) perché i suoi decisori sono così affascinati dalle sue possibilità.
"OpenAI è davvero entusiasta di costruire AGI", ha detto Kokotajlo, "e stanno correndo incautamente per essere i primi lì."
L'affermazione più piccante di Kokotajlo sul giornale, tuttavia, era che la possibilità che l'IA distruggesse l'umanità è circa il 70 percento — probabilità che non accetteresti per nessun grande evento della vita, ma che OpenAI e i suoi simili stanno comunque andando avanti.

Il termine "p (doom),", che nel gergo dell'intelligenza artificiale indica la probabilità che l'intelligenza artificiale introduca la rovina dell'umanità, è oggetto di continue controversie nel mondo dell'apprendimento automatico.

Il 31enne Kokotajlo ha detto al NYT che dopo essere entrato in OpenAI nel 2022 e gli è stato chiesto di prevedere i progressi della tecnologia, si è convinto non solo che l'industria avrebbe raggiunto l'AGI entro il 2027, ma che c'era una grande probabilità che potesse danneggiare catastroficamente o addirittura distruggere l'umanità.

Come notato nel lettera aperta, Kokotajlo e i suoi compagni — che comprende ex e attuali dipendenti di Google, DeepMind e Anthropic, nonché Geoffrey Hinton, il cosiddetto "Padrino dell'IA" che ha lasciato Google l'anno scorso per preoccupazioni simili — stanno affermando il loro "diritto di avvertire" il pubblico sui rischi posti dall'IA.


Kokotajlo era così convinto che l'intelligenza artificiale rappresentasse enormi rischi per l'umanità che alla fine ha esortato personalmente il CEO di OpenAI, Sam Altman, a dire che l'azienda doveva "orientarsi verso la sicurezza" e dedicare più tempo all'implementazione di guardrail per regnare sulla tecnologia piuttosto che continuare a renderla più intelligente.

Altman, secondo il racconto dell'ex dipendente, sembrava essere d'accordo con lui in quel momento, ma col tempo sembrava solo un'adesione formale.

Stufo, Kokotajlo ha lasciato l'azienda ad aprile, dicendo alla sua squadra in una e-mail che aveva "perso la fiducia che OpenAI si comporterà in modo responsabile" mentre continua a cercare di costruire AI a livello quasi umano.

"Il mondo non è pronto e non siamo pronti", ha scritto nella sua e-mail, condivisa con il NYT. "E sono preoccupato che stiamo andando avanti indipendentemente e razionalizzando le nostre azioni."

Tra le uscite dei grandi nomi e questo tipo di previsioni terrificanti, le ultime notizie su OpenAI sono state cupe - ed è difficile vedere che possano diventare più soleggiate andando avanti.

"Siamo orgogliosi del nostro curriculum che fornisce i sistemi di intelligenza artificiale più capaci e sicuri e crediamo nel nostro approccio scientifico per affrontare il rischio," la società ha dichiarato in una dichiarazione dopo la pubblicazione di questo pezzo. "Concordiamo sul fatto che un dibattito rigoroso è cruciale dato il significato di questa tecnologia e continueremo a impegnarci con i governi, la società civile e altre comunità in tutto il mondo."

"Questo è anche il motivo per cui abbiamo strade per i dipendenti per esprimere le loro preoccupazioni, tra cui una hotline anonima per l'integrità e un comitato per la sicurezza e la sicurezza guidato da membri del nostro consiglio e leader della sicurezza del compagnia "
, ha continuato la dichiarazione.


Segui @vocidallastrada anche su Telegram

Nessun commento:

Posta un commento

Avvertenze da leggere prima di intervenire sul blog Voci Dalla Strada

Non sono consentiti:
- messaggi pubblicitari
- messaggi con linguaggio offensivo
- messaggi che contengono turpiloquio
- messaggi con contenuto razzista o sessista
- messaggi il cui contenuto costituisce una violazione delle leggi italiane (istigazione a delinquere o alla violenza, diffamazione, ecc.)