Verschillende makers van inhoud, waaronder auteurs, songwriters en mediakanalen zoals The New York Times, ondernemen juridische stappen en beweren dat generatieve AI, getraind op auteursrechtelijk beschermde inhoud, zonder toestemming identieke kopieën produceert.
Voor ChatGPT werd geïntroduceerd, copyleaks, een bedrijf voor tekstanalyse op het gebied van kunstmatige intelligentie, bood al enige tijd plagiaatdetectiediensten aan bedrijven en onderwijsinstellingen aan.
Toen ChatGPT voor het eerst werd gelanceerd, gebruikte het het GPT-3.5-model, maar OpenAI heeft nu een upgrade uitgevoerd naar de meer geavanceerde en krachtige GPT-4.0 voor zijn activiteiten.
Plagiaat kan zich op verschillende manieren manifesteren, behalve door het rechtstreeks kopiëren en plakken van hele zinnen en alinea's.
- Copyleaks heeft tot doel het subjectieve oordeel over het opsporen van plagiaat om te zetten in een nauwkeurig en wetenschappelijk proces.
- Het bedrijf maakt gebruik van een uniek scoresysteem dat metingen van identieke tekst, kleine wijzigingen, geparafraseerde inhoud en andere elementen combineert om voor elk stuk inhoud een “similariteitsscore” te genereren.
- Volgens het rapport bevatte voor GPT-3.5 ongeveer 45.7% van de output identieke tekst, bevatte 27.4% kleine wijzigingen en bevatte 46.5% geparafraseerde inhoud.
- Volgens het rapport geeft een score van 0% aan dat alle inhoud origineel is, terwijl een score van 100% betekent dat geen enkele inhoud origineel is.
Copyleaks vroeg ongeveer duizend outputs van GPT-3.5, elk bestaande uit ongeveer 400 woorden, die 26 verschillende onderwerpen bestreken.
Van de geanalyseerde GPT-3.5-outputs was degene met de hoogste score op het gebied van de informatica (100%), op de voet gevolgd door de natuurkunde (92%) en de psychologie (88%).
De onderwerpen met de laagste gelijkenisscores waren theater (0.9%), geesteswetenschappen (2.8%) en Engelse taal (5.4%).
"Onze modellen zijn gemaakt en getraind om concepten te begrijpen en zo te helpen bij het oplossen van problemen. We hebben veiligheidsmaatregelen geïmplementeerd om onbedoeld onthouden te voorkomen, en onze servicevoorwaarden verbieden het opzettelijke gebruik van onze modellen om inhoud te reproduceren."
OpenAI-woordvoerder Lindsey Held vermeld in een mededeling aan Axios,
In de rechtszaak die The New York Times tegen Microsoft en OpenAI heeft aangespannen, wordt beweerd dat de uitgebreide replicatie van inhoud door de AI-systemen neerkomt op inbreuk op het auteursrecht.
In reactie op de rechtszaak heeft OpenAI betoogde dat ‘oprispingen’ een ongewoon probleem is en beschuldigde The New York Times ervan aanwijzingen te manipuleren.