La mossa rivoluzionaria dell’Unione Europea di introdurre la prima legislazione completa al mondo sull’intelligenza artificiale (AI) ha posto le basi per una nuova era nella regolamentazione tecnologica.
Proposto dalla Commissione europea nell’aprile 2021, l’European Union Artificial Intelligence Act (EU AI Act) mira a disciplinare lo sviluppo, la diffusione e l’utilizzo dei sistemi di intelligenza artificiale all’interno dell’UE in base al loro potenziale rischio per la salute umana, sicurezza e diritti fondamentali.
Sommario
Panoramica della legge dell'UE sull'intelligenza artificiale:
- Obiettivo: regolamentare i sistemi di intelligenza artificiale in base al rischio per la salute umana, la sicurezza e i diritti fondamentali.
- Classificazione: i sistemi di intelligenza artificiale sono classificati in base ai livelli di rischio, ciascuno dei quali deve far fronte a diverse misure normative.
Quadro normativo:
- divieti: i sistemi che presentano “rischi inaccettabili” sono vietati.
- obblighi: Misure differenziate per sistemi a rischio “alto” e “limitato”; trasparenza più leggera per un rischio limitato.
- Governance LPI: istituisce un comitato europeo per l'intelligenza artificiale (EAIB) con funzioni di orientamento e consulenza.
Misure di salvaguardia principali:
- Tutela del cittadino: Limiti ai sistemi biometrici delle forze dell’ordine, divieti di punteggio sociale, intelligenza artificiale manipolativa e diritti di reclamo dei consumatori.
Applicazione e transizione:
- Adozione prevista: Inizio 2024 con una transizione di 18 mesi prima della piena applicazione.
Importanza:
- Global Impact: segna una nuova era nella regolamentazione e nell’innovazione dell’IA.
- Leadership dell’UE: mira a essere leader nell’IA etica, promuovendo al contempo l’innovazione e la competitività del settore dell’IA.
Questa legislazione fondamentale classifica i sistemi di IA in livelli di rischio, ciascuno corrispondente a diverse misure normative. I sistemi di intelligenza artificiale che presentano “rischi inaccettabili” sono assolutamente vietati all’interno dell’UE. Per coloro che rientrano nelle categorie di “rischio elevato” o “rischio limitato” vengono assegnati obblighi normativi distinti. Ad esempio, i sistemi di intelligenza artificiale che presentano rischi limitati sarebbero soggetti a requisiti di trasparenza meno rigorosi, come informare gli utenti quando il contenuto viene generato dall’intelligenza artificiale.
La legge affronta specificamente la governance di potenti modelli di IA, tutelando l’Unione dai rischi sistemici. Fornisce solide protezioni ai cittadini e alle democrazie, proteggendoli dagli abusi tecnologici da parte delle autorità pubbliche. Le disposizioni includono limitazioni all’uso dei sistemi di identificazione biometrica da parte delle forze dell’ordine, divieti di punteggio sociale e utilizzo manipolativo dell’intelligenza artificiale e disposizioni che consentono ai consumatori di presentare reclami e ricevere spiegazioni significative.
Fondamentalmente, la legge delinea la creazione di una struttura di governance per la sua applicazione, inclusa la formazione di un Comitato europeo per l'IA (EIB). L’EAIB offrirà orientamento e consulenza su vari aspetti della legge sull’AI, come la standardizzazione, i codici di condotta e le valutazioni dei rischi.
La legge, la cui adozione è prevista per l’inizio del 2024, con un periodo di transizione di almeno 18 mesi prima della piena applicazione, rappresenta un passo avanti enorme nella regolamentazione e nell’innovazione dell’IA. Riflette l’aspirazione dell’UE a guidare un’IA etica e affidabile a livello globale, promuovendo al tempo stesso l’innovazione e la competitività nel settore dell’IA.
Questa legislazione fondamentale ha implicazioni per la regolamentazione tecnologica globale e lo sviluppo etico dell’IA, annunciando una nuova era nell’uso e nella regolamentazione responsabile dell’IA.