In een baanbrekende stap die mogelijk het landschap van kunstmatige intelligentie (AI) zou kunnen veranderen, hebben Amerikaanse vertegenwoordigers Anna Eshoo (D-CA) en Don Beyer (D-VA) de AI Foundation Model Transparency Act voorgesteld.
De wetgeving heeft tot doel de transparantie van AI-basismodellen te vergroten door bedrijven te verplichten bronnen van trainingsgegevens openbaar te maken, de beperkingen of risico’s van het model te beschrijven en de afstemming op het geplande AI Risk Management Framework van het National Institute of Standards and Technology (NIST) te schetsen.
Op grond van dit wetsvoorstel zouden bedrijven ook het mandaat krijgen om elke poging tot ‘red team’ van het AI-model te melden, wat inhoudt dat de robuustheid van de beveiliging onder de loep wordt genomen. De wetgeving wordt gezien als een verbetering van het AI-uitvoeringsbesluit van de regering-Biden, dat rapportagenormen voor AI-modellen vaststelt, maar geen wet is. De AI Foundation Model Transparency Act zou dienen om deze transparantievereisten in federale wetgeving om te zetten.
Het wetsvoorstel bevat ook bepalingen die zorgen over het auteursrecht aanpakken, gezien het toenemende publieke gebruik van funderingsmodellen en de daaruit voortvloeiende juridische problemen.
Bovendien zou de voorgestelde wet entiteiten zoals de Federal Trade Commission, NIST, het Copyright Office en het Office of Science and Technology Policy opdracht geven om transparantienormen voor AI-implementanten te ontwikkelen. Dit omvat het onthullen van de gebruikte trainingsgegevens, het expliciet maken van het trainingsproces en het verduidelijken of gebruikersgegevens worden benut tijdens inferentie.
Velen beschouwen dit wetsvoorstel als een cruciale stap in de richting van het empoweren van consumenten, waardoor ze goed geïnformeerde beslissingen kunnen nemen bij het inzetten van AI. Dit is vooral van belang wanneer vooroordelen in modellen tot schadelijke gevolgen kunnen leiden, zoals afwijzingen voor huisvestings- of leningaanvragen of misleidende medische beslissingen.
Bovendien zou de AI Foundation Model Transparency Act rapportage vereisen van de rekenkracht die wordt gebruikt om het AI-model te trainen en uit te voeren. AI-ontwikkelaars zouden ook specifieke informatie aan consumenten moeten bekendmaken.
Het wetsvoorstel is nog niet ter behandeling aan een commissie toegewezen. De voortgang ervan kan worden uitgesteld vanwege het komende verkiezingscampagneseizoen.
Terwijl de wereld deze ongekende stap scherp in de gaten houdt, valt het nog te bezien hoe deze wetgeving het AI-landschap vorm zal geven door ongekende maatregelen op het gebied van transparantie en verantwoording af te dwingen.