Company name: Dynamic Solutions s.r.l.
Address: VIA USODIMARE 3 - 37138 - VERONA (VR) - Italy

E-Mail: [email protected]

Allarme IA: Dipendenti di OpenAI e Google DeepMind Denunciano Rischi Estremi

Lettera aperta di attuali ed ex dipendenti delle principali aziende di IA solleva preoccupazioni su disuguaglianze, manipolazione e minacce esistenziali. Chiedono maggiore trasparenza e supervisione.
  • Lettera aperta di attuali ed ex dipendenti di OpenAI e Google DeepMind denuncia rischi eccessivi nello sviluppo dell'IA.
  • Mancanza di supervisione sufficiente e silenziamento dei dipendenti preoccupati dai comportamenti irresponsabili.
  • Richiesta di trasparenza e possibilità di esprimere critiche senza timore di ritorsioni economiche.
  • OpenAI ha minacciato di ritirare le azioni ai dipendenti per evitare critiche; Sam Altman ha promesso di eliminare la clausola.

Il 5 giugno 2024, un gruppo di attuali ed ex dipendenti di OpenAI e Google DeepMind ha pubblicato una lettera aperta per mettere in guardia dai rischi eccessivi che la società e i suoi rivali si stanno assumendo nello sviluppo dell’intelligenza artificiale (IA). La lettera, firmata da dipendenti ed ex-dipendenti di compagnie come OpenAI e Google DeepMind, denuncia la mancanza di una supervisione sufficiente nel settore e il silenziamento dei dipendenti che potrebbero essere testimoni di comportamenti irresponsabili.

Il Contenuto della Lettera

La lettera inizia affermando che i firmatari credono “nel potenziale della tecnologia dell’IA di apportare benefici senza precedenti all’umanità”. Tuttavia, prosegue sottolineando i gravi rischi posti da queste tecnologie, che vanno dal radicamento delle disuguaglianze esistenti, alla manipolazione e disinformazione, fino alla perdita di controllo dei sistemi di IA autonomi che potrebbero portare all’estinzione umana. Secondo la lettera, le compagnie hanno riconosciuto questi rischi, così come i governi e altri esperti di intelligenza artificiale.

I firmatari della lettera dubitano che si possa fare affidamento su queste compagnie per la gestione delle informazioni e la condivisione. “Finché non ci sarà una supervisione governativa efficace su queste società, gli attuali ed ex dipendenti sono tra le poche persone che possono far rispondere queste aziende delle proprie azioni”. La lettera conclude chiedendo alle compagnie di aprirsi alle critiche sui rischi delle intelligenze artificiali, senza imporre silenzio ai dipendenti tramite contratti o ritorsioni economiche.

Le Preoccupazioni Condivise

Un gruppo di nove dipendenti ex ed attuali di OpenAI e Google DeepMind ha sottolineato come le aziende non stiano facendo nulla di concreto per evitare che gli strumenti di intelligenza artificiale sviluppati possano diventare pericolosi. I timori del gruppo vertono sullo sviluppo di quella che sarà un’Intelligenza Artificiale Generale (AGI), che si sta inseguendo da tempo. Difficile non ricordare le parole dello stesso Sam Altman, che poco tempo addietro affermò che l’attuale ChatGpt sarà “incredibilmente stupida” rispetto alle prossime innovazioni.

Per avvalorare le proprie preoccupazioni, il gruppo ha riportato nella lettera affermazioni rilasciate in passato dagli stessi vertici delle aziende impegnate nello sviluppo di intelligenze artificiali. OpenAI riferì che “L’AGI comporterebbe anche gravi rischi di uso improprio, incidenti drastici e disagi sociali… opereremo come se questi rischi fossero esistenziali”. Anthropic ha invece affermato: “Se costruiamo un sistema di intelligenza artificiale che sia significativamente più competente degli esperti umani ma persegua obiettivi in conflitto con i nostri migliori interessi, le conseguenze potrebbero essere disastrose”. Infine, Google DeepMind ha dichiarato: “È plausibile che i futuri sistemi di intelligenza artificiale possano condurre operazioni informatiche offensive, ingannare le persone attraverso il dialogo, manipolare le persone inducendole a compiere azioni dannose, sviluppare armi (ad esempio biologiche, chimiche)… a causa di fallimenti di allineamento, questi modelli di intelligenza artificiale potrebbero compiere azioni dannose anche senza che nessuno lo intenda”.

Le Richieste e le Misure Proposte

Nella lettera, i dipendenti chiedono alle società di intelligenza artificiale di non stipulare o applicare accordi che proibiscano la “denigrazione” o la critica per preoccupazioni al rischio, né di vendicarsi ostacolando il vantaggio economico acquisito a seguito di critiche al rischio. Inoltre, chiedono che le aziende facilitino un processo anonimo e verificabile per permettere ai dipendenti attuali ed ex di sollevare preoccupazioni relative al rischio al consiglio di amministrazione, alle autorità di regolamentazione o a un’organizzazione indipendente con competenze.

Le aziende dovrebbero promuovere una cultura di critica aperta che consenta ai dipendenti attuali ed ex di sollevare preoccupazioni sui rischi delle tecnologie al pubblico, al consiglio di amministrazione, alle autorità di regolamentazione o a un’organizzazione indipendente, proteggendo i segreti commerciali e gli interessi di proprietà intellettuale. Infine, le aziende non dovrebbero effettuare ritorsioni contro i dipendenti attuali ed ex che condividano informazioni riservate relative al rischio dopo che altri processi sono falliti.

Censura e Caos

Il mese scorso OpenAI è finita al centro delle critiche dopo che un articolo di Vox ha rivelato che l’azienda ha minacciato di ritirare le azioni accumulate dai dipendenti nel caso in cui non avessero firmato un accordo che vieta loro di criticare l’azienda o anche solo di menzionare l’esistenza della clausola. Di recente, l’amministratore delegato di OpenAI Sam Altman ha dichiarato su X che non era a conoscenza dell’accordo e che l’azienda non ha mai chiesto a nessuno di restituire le proprie azioni. Altman ha anche annunciato che la disposizione sarà eliminata, lasciando ai dipendenti la possibilità di esprimersi.

OpenAI ha da poco cambiato il suo approccio alla sicurezza. Il mese scorso, il gruppo di ricerca interno che aveva il compito di valutare e contrastare i rischi a lungo termine posti dai modelli di AI più potenti dell’azienda si è di fatto sciolto dopo l’addio di diverse figure di spicco e l’assorbimento dei membri rimanenti in altri reparti. Poche settimane dopo, l’azienda ha annunciato la creazione di un Comitato per la sicurezza guidato da Altman e da altri membri del consiglio di amministrazione.

Bullet Executive Summary

La lettera aperta dei dipendenti di OpenAI e Google DeepMind rappresenta un grido d’allarme riguardo ai rischi potenziali dell’intelligenza artificiale avanzata. Le preoccupazioni espresse spaziano dal radicamento delle disuguaglianze esistenti alla manipolazione e disinformazione, fino alla perdita di controllo dei sistemi autonomi di IA che potrebbero portare all’estinzione umana. Le richieste dei dipendenti includono una maggiore trasparenza, supervisione governativa e la possibilità di esprimere critiche senza timore di ritorsioni.

In un contesto tecnologico in cui l’IA sta avanzando a ritmi vertiginosi, è fondamentale che la comunità scientifica, i politici e il pubblico collaborino per garantire uno sviluppo sicuro ed etico di queste tecnologie. La nozione di base di tecnologia correlata al tema principale dell’articolo è il concetto di whistleblowing, ovvero la possibilità per i dipendenti di segnalare comportamenti scorretti o pericolosi all’interno delle aziende senza subire ritorsioni. Una nozione di tecnologia avanzata applicabile al tema dell’articolo è il concetto di allineamento dell’IA, che riguarda la progettazione di sistemi di intelligenza artificiale che agiscano in conformità con gli obiettivi e i valori umani.

La riflessione personale che emerge da questo articolo è la necessità di bilanciare l’innovazione tecnologica con la responsabilità etica e sociale. Mentre le potenzialità dell’IA sono immense, è essenziale che il suo sviluppo sia accompagnato da misure di sicurezza adeguate e da una trasparenza che permetta di affrontare e mitigare i rischi. Solo così potremo garantire che l’IA apporti benefici senza precedenti all’umanità, senza mettere in pericolo il nostro futuro.


Articolo e immagini generati dall’AI, senza interventi da parte dell’essere umano. Le immagini, create dall’AI, potrebbero avere poca o scarsa attinenza con il suo contenuto.(scopri di più)
0 0 votes
Article Rating
Subscribe
Notificami
guest
1 Comment
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
1
0
Ci interessa la tua opinione, lascia un commento!x