Con una mossa storica che potrebbe potenzialmente cambiare il panorama dell’intelligenza artificiale (AI), i rappresentanti degli Stati Uniti Anna Eshoo (D-CA) e Don Beyer (D-VA) hanno proposto l’AI Foundation Model Transparency Act.
La legislazione mira ad aumentare la trasparenza dei modelli di base dell’IA richiedendo alle aziende di rivelare le fonti dei dati di formazione, descrivere i limiti o i rischi del modello e delineare l’allineamento con il quadro di gestione del rischio AI pianificato dal National Institute of Standards and Technology (NIST).
In base a questo disegno di legge, le aziende avrebbero anche il compito di segnalare qualsiasi tentativo di “squadra rossa” del modello di intelligenza artificiale, che implica l’esame della sua robustezza in termini di sicurezza. La legislazione è vista come un miglioramento dell’ordine esecutivo sull’intelligenza artificiale dell’amministrazione Biden, che stabilisce standard di reporting per i modelli di intelligenza artificiale ma non è una legge. L’AI Foundation Model Transparency Act servirebbe a introdurre questi requisiti di trasparenza nella legge federale.
Il disegno di legge incorpora anche disposizioni che affrontano le preoccupazioni sul diritto d’autore, dato il crescente utilizzo pubblico dei modelli di fondazione e le conseguenti questioni legali.
Inoltre, la proposta di legge indirizzerebbe enti come la Federal Trade Commission, il NIST, il Copyright Office e l’Office of Science and Technology Policy a sviluppare standard di trasparenza per gli utilizzatori di intelligenza artificiale. Ciò include la rivelazione dei dati di addestramento utilizzati, la spiegazione del processo di addestramento e il chiarimento se i dati dell'utente vengono sfruttati durante l'inferenza.
Molti considerano questo disegno di legge come un passo fondamentale verso l’empowerment dei consumatori, consentendo loro di prendere decisioni ben informate quando sfruttano l’intelligenza artificiale. Ciò è particolarmente significativo quando le distorsioni nei modelli possono portare a impatti dannosi, come il rifiuto di domande di alloggio o di prestito o decisioni mediche sbagliate.
Inoltre, l’AI Foundation Model Transparency Act richiederebbe la rendicontazione della potenza di calcolo utilizzata per addestrare ed eseguire il modello di intelligenza artificiale. Gli sviluppatori di intelligenza artificiale dovrebbero anche pubblicizzare informazioni specifiche ai consumatori.
La proposta di legge non è stata ancora assegnata a una commissione per la discussione. I suoi progressi potrebbero essere ritardati con la prossima stagione della campagna elettorale.
Mentre il mondo osserva con attenzione questa mossa senza precedenti, resta da vedere come questa legislazione plasmerà il panorama dell’intelligenza artificiale imponendo misure di trasparenza e responsabilità senza precedenti.