Sinds de lancering op 30 november 2022 heeft ChatGPT vanwege zijn intelligentie de aandacht van velen getrokken. Hoe kan het niet zijn? Door een automatisch dialoogsysteem te creëren, kan ChatGPT informatie verstrekken en alle vragen beantwoorden via chat met een mensachtige responskwaliteit.
Inhoudsopgave
Met zijn vermogen om tekst van hoge kwaliteit te produceren, kan ChatGPT aanzienlijke positieve veranderingen teweegbrengen in de activiteiten van zijn gebruikers.
Maar achter de aanwezigheid van ChatGPT, met al zijn voordelen die veel mensen kunnen helpen, kan het ook een bedreiging en gevaar vormen voor veel merken en technologiebedrijven.
Bedrijven die het gebruik van ChatGPT verbieden
Onlangs heeft Amazon zich aangesloten bij andere bedrijven zoals Walmart Global Tech, Microsoft, JP Morgan en Verizon, die hun werknemers eerder hebben verboden of beperkt in het gebruik van of het invoeren van vertrouwelijke informatie in ChatGPT.
Amazon waarschuwt zelf alle medewerkers en werknemers om ChatGPT niet te gebruiken om code te schrijven of te delen die bij ChatGPT is geregistreerd voor voltooiing.
Dit werd rechtstreeks overgebracht door een Amazon-advocaat op het interne Slack-kanaal van het bedrijf bij het beantwoorden van vragen van werknemers over de vraag of er officiële instructies waren voor het gebruik van ChatGPT op zakelijke apparaten.
In hun briefing zei de advocaat dat het personeel werd gevraagd om bestaande bedrijfsgeheimen te volgen en geen interactie te hebben met en geen vertrouwelijke informatie van Amazon te verstrekken aan ChatGPT nadat het bedrijf enkele van zijn reacties had gevonden die vergelijkbaar waren met de interne situatie van Amazon.
De advocaat benadrukte ook dat alle input die hun werknemers aan de AI leveren, kan dienen als herhaalde trainingsgegevens voor ChatGPT. Het bedrijf wil niet dat de resultaten vertrouwelijke bedrijfsinformatie bevatten of lijken.
Mogelijke risico's van het delen van belangrijke gegevens met ChatGPT
De bezorgdheid van Amazon is zeker niet ongegrond. Hoewel ChatGPT beweert dat het geen informatie opslaat die gebruikers in gesprekken invoeren, "leert" het wel van elk gesprek. Dit betekent dat er geen veiligheidsgarantie is in deze communicatie wanneer gebruikers via internet informatie invoeren in gesprekken met ChatGPT.
De kwestie van transparantie over de gegevens die met ChatGPT worden gedeeld, is ook in twijfel getrokken door een docent computerlinguïstiek van de Universiteit van Washington, die zei dat OpenAI, het bedrijf dat ChatGPT heeft gemaakt, verre van transparant is over het gegevensgebruik. Als de gegevens worden gebruikt voor trainingsgegevens, is het mogelijk dat mensen later bepaalde grote bedrijfsgeheimen kunnen achterhalen door simpelweg ChatGPT te vragen.
Het Britse National Cyber Security Centre (NCSC) voegde de mogelijke risico's van het delen van gegevens met ChatGPT toe door te zeggen dat zelfs als het invoeren van informatie in een query er niet toe leidt dat mogelijk privégegevens worden ingevoerd in het grote taalmodel (LLM), de vraag toch blijft bestaan. zichtbaar zijn voor de organisatie of het bedrijf dat de LLM levert, in het geval van ChatGPT is dit OpenAI.
Het NCSC voegde eraan toe dat zoekopdrachten die online zijn opgeslagen, ook kunnen worden gehackt, gelekt of zelfs openbaar toegankelijk kunnen worden.
Datalekken die zijn opgetreden
Het probleem van vertrouwelijkheid en privacy van gebruikersgegevens die ChatGPT verzamelt, deed zich onlangs voor toen gebruikers op 20 maart gesprekken konden bekijken die niet in hun geschiedenis staan.
Op 22 maart bevestigde Sam Altman, CEO van OpenAI, snel een fout in ChatGPT waardoor sommige gebruikers de gesprekstitels van andere gebruikers konden bekijken. Altman zei dat het bedrijf zich 'verschrikkelijk' voelde, maar significante fouten waren met succes gecorrigeerd.
Gebruik van ChatGPT op de werkplek
Volgens onderzoek van de op carrière gebaseerde sociale netwerk-app Fishbowl, gebruikt ten minste 68% van de werknemers die ChatGPT gebruiken het zonder dat hun werkgever het weet.
Ondertussen bleek uit onderzoek uitgevoerd door Cyberhaven Labs onder 1,6 miljoen werknemers in brancheoverstijgende bedrijven die Cyberhaven-producten gebruikten dat 8,2% van de werknemers ChatGPT minstens één keer op het werk had gebruikt.
Uit eerder onderzoek van Cyberhaven in februari bleek dat 11% van wat werknemers in ChatGPT plakken, gevoelige gegevens zijn. Cyberhaven merkte op dat er tussen 26 februari en 4 maart 2023 gemiddeld per 100.000 werknemers 199 incidenten waren met het uploaden van intern-specifieke vertrouwelijke gegevens naar ChatGPT en 173 incidenten met het uploaden van klantgegevens, evenals 159 incidenten met het uploaden van broncode.
Er kan worden geconcludeerd dat, hoewel sommige bedrijven hebben geprobeerd de toegang tot ChatGPT te blokkeren, het gebruik exponentieel blijft toenemen, en de werknemer blijft manieren vinden om toegang te krijgen tot de AI-chatbot, een daarvan is door een proxy te gebruiken om veel van deze netwerk- gebaseerde beveiligingstools ondanks de mogelijkheid van risico's van het delen van bedrijfsgegevens, zoals hierboven uitgelegd.
De privacyrisico's die inherent zijn aan het gebruik van ChatGPT zouden gebruikers eraan moeten herinneren om voorzichtiger te zijn met welke informatie ze delen met de AI-chatbot. En houd er rekening mee dat ondanks de potentiële voordelen, Open AI een particuliere onderneming met winstoogmerk is waarvan de commerciële belangen en imperatieven niet noodzakelijkerwijs overeenkomen met de behoeften van de grotere samenleving.