E-Mail: [email protected]
- Il 2 agosto 2024 segna l'entrata in vigore del regolamento UE 2024/1689, noto come AI Act.
- Il regolamento introduce standard etici e di sicurezza per i sistemi di intelligenza artificiale, applicabili in settori come bancario, salute e trasporti.
- Alcune disposizioni entreranno in vigore dal 2 agosto 2026, con i primi effetti visibili entro il 2 febbraio 2025.
Il 2 agosto 2024 segna una data cruciale per l’Unione Europea con l’entrata in vigore del Regolamento UE 2024/1689, noto come AI Act. Questo regolamento, pubblicato sulla Gazzetta ufficiale dell’Unione Europea, rappresenta un passo significativo verso la regolamentazione dell’intelligenza artificiale (AI) nel continente. L’AI Act è destinato a influenzare profondamente la vita quotidiana, il lavoro e le imprese, stabilendo standard etici e di sicurezza per domare la crescita arbitraria del settore.
L’AI non è più un argomento di conversazione per pochi informatici e accademici, ma è diventata uno strumento utilizzato da professionisti, lavoratori e imprese. Comprendere come cambierà il panorama con la nuova legge europea sull’intelligenza artificiale è essenziale per tutti gli attori coinvolti.
Obiettivi e Normative dell’AI Act
L’obiettivo principale del legislatore UE è introdurre standard etici e di sicurezza per l’intelligenza artificiale, traducendosi in normative relative alla trasparenza degli algoritmi, all’etichettatura dei contenuti generati dall’AI e ai principi di gestione del ciclo di vita dei sistemi di intelligenza artificiale. Per essere utilizzati e commercializzati sul mercato europeo, i sistemi di intelligenza artificiale dovranno soddisfare norme e standard specifici per tutti i settori, dal bancario alla salute, dai trasporti all’istruzione.
Il regolamento entrerà in vigore il 2 agosto 2024, ma alcune disposizioni saranno applicate con una vacatio legis. L’AI Act sarà pienamente applicato dal 2 agosto 2026, con i primi effetti che arriveranno entro il 2 febbraio 2025. Tra le pratiche vietate, quelle di intelligenza artificiale dovranno essere ritirate dal mercato.
Gli obiettivi principali dell’AI Act includono:
– La creazione di un mercato unico per l’AI, garantendo la libera circolazione e il riconoscimento dei sistemi AI conformi alle norme dell’UE.
– L’aumento della fiducia nell’AI, garantendo sistemi AI affidabili, trasparenti e responsabili che rispettino principi etici e diritti fondamentali.
– La diminuzione dei rischi dell’AI, con il divieto e la limitazione dell’uso di sistemi a rischio inaccettabile per la sicurezza, la salute, la dignità e l’autonomia delle persone, e che violino i valori democratici.
– Il sostegno all’innovazione, con incentivi e finanziamenti per lo sviluppo e l’implementazione di sistemi AI sicuri ed etici.
Implicazioni per i Notai e le Professioni Intellettuali
L’intelligenza artificiale avrà un impatto significativo sulla futura professione notarile, anche se l’entità del cambiamento è ancora incerta. L’utilizzo diffuso di sistemi di AI rappresenta un’evoluzione tecnologica che si differenzia notevolmente dalle innovazioni degli ultimi anni, come la blockchain, che non ha avuto l’impatto previsto sul notariato e sui sistemi di registrazione pubblica.
L’AI, invece, è multiforme e versatile nelle sue applicazioni, con conseguenze significative non solo per il notariato e le professioni intellettuali, ma per l’intero mondo del lavoro. L’impatto sarà globale e non solo nazionale, rendendo essenziale per il notariato comprendere gli ambiti di applicazione della nuova tecnologia e intraprendere una riflessione ampia e trasparente attraverso organismi politici nazionali e internazionali.
L’applicazione della tecnologia basata sull’AI non potrà essere illimitata e incontrollata, né destinata alla sostituzione integrale dell’operato umano. Un tale scenario escluderebbe l’essere umano dal mondo del lavoro nella società del futuro, con un impatto sociale, psicologico ed economico devastante per l’intero equilibrio mondiale.
Responsabilità Penale per Provider e Deployer
L’AI Act introduce nuove responsabilità per i provider e i deployer di sistemi di intelligenza artificiale. I provider, definiti come persone fisiche o giuridiche che sviluppano e immettono sul mercato sistemi di IA, devono garantire che i loro sistemi siano conformi ai requisiti previsti dal regolamento. Questo include dotarsi di un sistema di gestione della qualità, conservare i log generati dai sistemi ad alto rischio e garantire che il sistema sia sottoposto a una procedura di valutazione della conformità prima dell’immissione sul mercato.
I deployer, definiti come persone fisiche o giuridiche che utilizzano un sistema di IA sotto la propria autorità, devono adottare misure tecniche e organizzative idonee a garantire l’utilizzo sicuro dei sistemi, monitorare il funzionamento del sistema e informare immediatamente il fornitore e le autorità di vigilanza del mercato in caso di incidenti gravi.
Dal punto di vista penale, l’AI Act predispone una serie di standard di comportamento e obblighi di conformità e trasparenza, la cui violazione è sanzionata con sanzioni amministrative pecuniarie. Tuttavia, il regolamento non prevede specifiche responsabilità penali, lasciando spazio a interventi legislativi nazionali per adeguarsi alla disciplina esistente.
Bullet Executive Summary
L’introduzione dell’AI Act rappresenta un passo fondamentale per la regolamentazione dell’intelligenza artificiale in Europa. Questo regolamento mira a creare un mercato unico per l’AI, aumentando la fiducia nei sistemi di intelligenza artificiale e riducendo i rischi associati. Le nuove normative avranno un impatto significativo su vari settori, inclusa la professione notarile, e introdurranno nuove responsabilità per i provider e i deployer di sistemi di IA.
*Nozione base di tecnologia correlata: L’intelligenza artificiale si basa su algoritmi complessi che analizzano grandi quantità di dati per prendere decisioni o eseguire compiti specifici. La qualità dei dati utilizzati è cruciale per l’efficacia e l’affidabilità dei sistemi di AI.
Nozione avanzata di tecnologia correlata:* La sorveglianza umana (human oversight) è un concetto chiave nell’AI Act, che prevede che gli operatori umani abbiano competenze e autorità necessarie per monitorare e intervenire sui sistemi di IA ad alto rischio. Questo garantisce che l’intelligenza artificiale operi in modo sicuro e conforme alle normative, riducendo i rischi per la salute, la sicurezza e i diritti fondamentali delle persone.
In conclusione, l’AI Act rappresenta una sfida ambiziosa ma necessaria per regolamentare un settore in rapida evoluzione. La sua implementazione richiederà un impegno continuo da parte di tutti gli attori coinvolti per garantire che l’intelligenza artificiale possa essere utilizzata in modo sicuro, etico e responsabile.
- Sito ufficiale dell'Unione Europea sulla strategia digitale, sezione sulla legge sull'intelligenza artificiale
- Comunicato stampa ufficiale della Commissione Europea sull'accordo politico sull'Artificial Intelligence Act
- Testo ufficiale della proposta di regolamento del Parlamento europeo e del Consiglio sull'intelligenza artificiale