E-Mail: [email protected]
- 5 giugno 2024: Pubblicazione della lettera aperta su righttowarn.ai
- AI Act: L'Europa ha approvato la prima legge che regola l'intelligenza artificiale, ma la Corte dei Conti europea lamenta scarsi investimenti.
- Sam Altman: Il CEO di OpenAI ha definito l'attuale ChatGPT "incredibilmente stupida" rispetto alle prossime innovazioni.
Il 5 giugno 2024, una lettera aperta firmata da attuali ed ex dipendenti di OpenAI e Google DeepMind ha sollevato preoccupazioni significative riguardo ai rischi posti dall’intelligenza artificiale avanzata. La lettera, pubblicata sul sito righttowarn.ai, mette in luce i potenziali pericoli che queste tecnologie potrebbero rappresentare per l’umanità, inclusa la possibilità di estinzione.
La lettera inizia con una dichiarazione di fede nel potenziale dell’IA di apportare benefici senza precedenti all’umanità, ma prosegue sottolineando i gravi rischi associati a queste tecnologie. Questi rischi includono il radicamento delle disuguaglianze esistenti, la manipolazione e la disinformazione, e la perdita di controllo sui sistemi di IA autonomi, che potrebbero portare all’estinzione umana.
Secondo i firmatari, le compagnie di IA riconoscono questi rischi, ma spesso evitano una supervisione completa a causa di incentivi finanziari. La lettera chiede un monitoraggio esterno efficace, poiché le strutture di governance aziendale attuali non sono sufficienti a mitigare i rischi. Gli accordi di riservatezza impediscono ai dipendenti di esprimere le loro preoccupazioni, rendendo difficile affrontare questi problemi in modo trasparente.
La Corsa all’Intelligenza Artificiale Generale
La lettera firmata da dipendenti attuali e passati di OpenAI e Google DeepMind, intitolata “Il diritto di mettere in guardia sull’intelligenza artificiale avanzata”, evidenzia le preoccupazioni riguardo al ritmo di crescita e alla pericolosità dell’intelligenza artificiale. Secondo i firmatari, l’Intelligenza Artificiale Generale (AGI) potrebbe comportare rischi significativi, inclusi l’uso improprio, incidenti drastici e disagi sociali.
Sam Altman, CEO di OpenAI, ha affermato che l’attuale ChatGPT sarà “incredibilmente stupida” rispetto alle prossime innovazioni, sottolineando la rapidità con cui l’IA sta avanzando. Tuttavia, la mancanza di supervisione e la pressione per avanzare rapidamente stanno creando un ambiente pericoloso. La lettera cita affermazioni di altre aziende di IA, come Anthropic e Google DeepMind, che riconoscono i rischi esistenziali associati all’AGI.
L’Europa ha recentemente approvato l’AI Act, la prima legge che regola l’intelligenza artificiale, ma la Corte dei Conti europea ha lamentato scarsi investimenti. La lettera chiede una maggiore condivisione delle informazioni tra le aziende di IA, i governi e la società civile, e un controllo governativo efficace per mitigare i rischi.
Censura e Caos: La Situazione Interna di OpenAI
La lettera aperta ha rivelato che OpenAI ha minacciato di ritirare le azioni accumulate dai dipendenti se non avessero firmato un accordo che vieta loro di criticare l’azienda. Sam Altman ha dichiarato di non essere a conoscenza dell’accordo e ha annunciato che la disposizione sarà eliminata. OpenAI ha recentemente cambiato il suo approccio alla sicurezza, sciogliendo il gruppo di ricerca interno che valutava i rischi a lungo termine e creando un Comitato per la sicurezza guidato da Altman e altri membri del consiglio di amministrazione.
Tra i firmatari della lettera ci sono persone che in passato hanno lavorato alla sicurezza di OpenAI, come William Saunders, Carroll Wainwright e Daniel Ziegler, e attuali dipendenti che hanno sottoscritto il documento in forma anonima. La lettera ha ricevuto il sostegno di importanti ricercatori di AI, tra cui Geoffrey Hinton e Yoshua Bengio, entrambi vincitori del premio Turing, e Stuart Russell, uno dei maggiori esperti di sicurezza dell’AI.
Jacob Hilton, un ex ricercatore di OpenAI, ha affermato che l’opinione pubblica sta sottovalutando il ritmo di sviluppo dell’IA. Daniel Kokotajlo, un altro ex ricercatore di OpenAI, ha sottolineato la necessità di una maggiore trasparenza e ha espresso preoccupazione per la velocità con cui l’IA sta avanzando.
Richieste e Aspettative
La lettera chiede alle società di intelligenza artificiale di non stipulare né applicare accordi che proibiscano la critica nei confronti della società per preoccupazioni legate al rischio. Inoltre, le aziende dovrebbero facilitare un processo anonimo e verificabile affinché i dipendenti possano sollevare preoccupazioni relative al rischio al consiglio di amministrazione dell’azienda, alle autorità di regolamentazione e a un’organizzazione indipendente adeguata con competenze pertinenti.
Le aziende dovrebbero promuovere una cultura di critica aperta e consentire ai dipendenti di sollevare preoccupazioni relative ai rischi delle tecnologie al pubblico, al consiglio di amministrazione dell’azienda, alle autorità di regolamentazione o a un’organizzazione indipendente adeguata con competenze pertinenti. Inoltre, le aziende non dovrebbero effettuare ritorsioni contro i dipendenti che condividano pubblicamente informazioni riservate relative al rischio.
Questa lettera arriva dopo che due importanti dipendenti di OpenAI, il co-fondatore Ilya Sutskever e il ricercatore principale sulla sicurezza Jan Leike, si sono dimessi dall’azienda. La loro uscita ha invogliato altri ex dipendenti di OpenAI a parlare apertamente. La lettera è stata firmata da 13 persone, tra cui sette ex dipendenti di OpenAI, quattro dipendenti attuali di OpenAI, un ex dipendente di Google DeepMind e un dipendente attuale di Google DeepMind.
Bullet Executive Summary
In conclusione, la lettera aperta firmata da attuali ed ex dipendenti di OpenAI e Google DeepMind solleva preoccupazioni significative riguardo ai rischi posti dall’intelligenza artificiale avanzata. La mancanza di supervisione e la pressione per avanzare rapidamente stanno creando un ambiente pericoloso. Le aziende di IA devono promuovere una cultura di critica aperta e consentire ai dipendenti di sollevare preoccupazioni relative ai rischi delle tecnologie.
Una nozione base di tecnologia correlata al tema principale dell’articolo è il concetto di “whistleblowing”, che si riferisce alla pratica di segnalare attività illegali o non etiche all’interno di un’organizzazione. Nel contesto dell’intelligenza artificiale, il whistleblowing è cruciale per garantire che i rischi associati a queste tecnologie siano adeguatamente mitigati.
Una nozione avanzata di tecnologia applicabile al tema dell’articolo è il “reinforcement learning” (apprendimento per rinforzo), una tecnica di machine learning in cui un agente apprende a compiere azioni in un ambiente per massimizzare una ricompensa cumulativa. L’apprendimento per rinforzo è utilizzato nello sviluppo di sistemi di intelligenza artificiale avanzata, ma presenta anche rischi significativi se non adeguatamente controllato.
Riflettiamo insieme: come possiamo garantire che lo sviluppo dell’intelligenza artificiale avvenga in modo sicuro ed etico? La trasparenza, la supervisione e la promozione di una cultura di critica aperta sono fondamentali per affrontare queste sfide.