E-Mail: [email protected]
- Il tentato omicidio di Donald Trump del 13 luglio 2024 ha evidenziato i problemi delle intelligenze artificiali generative.
- Meta AI ha fornito risposte errate, affermando che l'attentato non era mai avvenuto, a causa delle cosiddette allucinazioni dell'IA.
- Una foto iconica di Trump è stata erroneamente etichettata come falsa da Meta e i sistemi di Google hanno sollevato sospetti di censura.
Il recente tentato omicidio di Donald Trump, avvenuto il 13 luglio 2024 in Pennsylvania, ha messo in luce alcune problematiche significative legate all’uso delle intelligenze artificiali generative. Meta AI, il chatbot sviluppato da Meta, ha inizialmente risposto in modo errato alle domande degli utenti sull’evento, affermando che l’attentato non era mai avvenuto. Questo errore ha portato l’azienda di Menlo Park a rivelare uno dei filtri utilizzati per arginare le intelligenze artificiali, al fine di evitare risposte inappropriate, sconvenienti o dannose.
Meta ha spiegato che il problema è dovuto alle cosiddette “allucinazioni” delle intelligenze artificiali generative, che si verificano quando i chatbot forniscono risposte errate o inventate. Questo difetto tecnologico è ancora irrisolto e rappresenta una sfida continua per la gestione degli eventi in tempo reale da parte dell’IA. Meta ha ammesso che i chatbot, inclusa Meta AI, non sono sempre affidabili nel fornire notizie o informazioni in tempo reale, poiché le risposte generate si basano sui dati su cui sono stati addestrati, il che può creare problemi quando l’IA è posta di fronte a domande su argomenti in rapido sviluppo.
La Censura delle Immagini e delle Informazioni
Un altro aspetto rilevante del caso riguarda la censura delle immagini e delle informazioni relative all’attentato. Meta ha etichettato come “falsa” una foto iconica di Trump che si rialza insanguinato dopo il tentativo di attentato, con il pugno alzato verso il cielo. La foto, scattata dal fotografo Evan Vucci e considerata meritevole di un premio Pulitzer, è stata erroneamente etichettata come alterata dai “fact checker indipendenti”. Meta ha spiegato che l’etichettatura della foto è stata un errore dovuto a un controllo dei fatti applicato inizialmente a una foto manipolata che mostrava agenti dei servizi segreti sorridenti.
Anche Google è stato coinvolto nella controversia, poiché la sua funzione di riempimento automatico non suggeriva il nome di Trump quando si cercava “fallito attentato a…”. Questo comportamento ha sollevato sospetti di censura, ma Google ha risposto spiegando che i suoi sistemi hanno protezioni contro previsioni di completamento automatico associate alla violenza politica.
Le Risposte di Meta e Google
Meta ha cercato di giustificare gli errori del suo chatbot spiegando che l’IA era programmata per non rispondere alle domande sull’attentato a Trump, al fine di evitare la diffusione di informazioni errate. Tuttavia, in un numero limitato di casi, Meta AI ha continuato a fornire risposte errate, affermando che l’evento non era accaduto. Meta ha ammesso che questo tipo di risposte, definite “allucinazioni”, rappresentano un problema a livello di settore e una sfida continua per l’intelligenza artificiale nella gestione degli eventi in tempo reale.
Google, dal canto suo, ha spiegato che non c’è stata alcuna azione manuale sulla funzione di auto-compilazione e che i sistemi hanno funzionato come previsto prima dell’evento. Tuttavia, ha riconosciuto la necessità di miglioramenti per garantire che i sistemi siano più aggiornati.
Bullet Executive Summary
In conclusione, il caso del tentato omicidio di Donald Trump e le risposte errate fornite dalle intelligenze artificiali di Meta e Google mettono in evidenza i limiti e le sfide delle tecnologie AI generative. Le “allucinazioni” delle IA, che portano a risposte errate o inventate, rappresentano un problema significativo che deve essere affrontato. Inoltre, la censura delle immagini e delle informazioni solleva interrogativi sulla trasparenza e l’affidabilità delle piattaforme tecnologiche.
La nozione base di tecnologia correlata a questo tema è il concetto di modelli linguistici di grandi dimensioni (LLM), che sono alla base delle intelligenze artificiali generative come Meta AI e ChatGPT. Questi modelli sono addestrati su enormi quantità di dati testuali e sono in grado di generare risposte coerenti e contestualmente rilevanti. Tuttavia, come dimostrato dal caso in questione, possono anche produrre risposte errate o fuorvianti.
Una nozione di tecnologia avanzata applicabile al tema è il concetto di filtro di contenuti basato su IA. Questi filtri sono progettati per rilevare e prevenire la diffusione di informazioni inappropriate o dannose. Tuttavia, come dimostrato dagli errori di Meta e Google, questi sistemi non sono infallibili e richiedono continui miglioramenti per garantire la loro efficacia.
In definitiva, il caso del tentato omicidio di Trump e le risposte delle intelligenze artificiali ci ricordano l’importanza di sviluppare tecnologie più affidabili e trasparenti, che possano gestire in modo accurato e responsabile le informazioni in tempo reale.