Sinds de lancering op 30 november 2022 heeft ChatGPT de aandacht van velen getrokken vanwege zijn intelligentie. Hoe zou het niet kunnen? Door een automatisch dialoogsysteem te creëren, kan ChatGPT informatie verstrekken en alle vragen via chat beantwoorden met een mensachtige antwoordkwaliteit.
Inhoudsopgave
Met zijn vermogen om tekst van hoge kwaliteit te produceren, kan ChatGPT aanzienlijke positieve veranderingen teweegbrengen in de activiteiten van zijn gebruikers.
Achter de aanwezigheid van ChatGPT, met al zijn voordelen die veel mensen kunnen helpen, kan het echter ook een bedreiging en gevaar vormen voor veel merken en technologiebedrijven.
Bedrijven die het gebruik van ChatGPT verbieden
Onlangs heeft Amazon zich aangesloten bij andere bedrijven zoals Walmart Global Tech, Microsoft, JP Morgan en Verizon, die hun werknemers eerder hebben verboden of beperkt in het gebruiken of invoeren van vertrouwelijke informatie in ChatGPT.
Amazon zelf waarschuwt al het personeel en medewerkers om ChatGPT niet te gebruiken om code te schrijven of te delen die bij ChatGPT is geregistreerd voor voltooiing.
Dit werd rechtstreeks door een advocaat van Amazon overgebracht op het interne Slack-kanaal van het bedrijf toen hij vragen van medewerkers beantwoordde over de vraag of er officiële instructies waren voor het gebruik van ChatGPT op werkapparaten.
In hun briefing zei de advocaat dat het personeel werd gevraagd om bestaande bedrijfsgeheimen te volgen en niet te communiceren met Amazon en vertrouwelijke informatie aan ChatGPT te verstrekken nadat het bedrijf enkele van zijn reacties had gevonden die vergelijkbaar waren met de interne situatie van Amazon.
De advocaat benadrukte ook dat elke input die hun werknemers aan de AI leveren, zou kunnen dienen als herhaalde trainingsgegevens voor ChatGPT. Het bedrijf wil niet dat de resultaten vertrouwelijke bedrijfsinformatie bevatten of erop lijken.
Mogelijke risico's van het delen van belangrijke gegevens met ChatGPT
De bezorgdheid van Amazon is zeker niet ongegrond. Hoewel ChatGPT beweert dat het geen informatie opslaat die gebruikers in gesprekken invoeren, ‘leert’ het wel van elk gesprek. Dit betekent dat er geen veiligheidsgarantie is in deze communicatie wanneer gebruikers informatie invoeren in gesprekken met ChatGPT via internet.
De kwestie van transparantie over de gegevens die met ChatGPT worden gedeeld, is ook in twijfel getrokken door een docent computerlinguïstiek van de Universiteit van Washington, die zei dat OpenAI, het bedrijf dat ChatGPT heeft gemaakt, verre van transparant is over zijn gegevensgebruik. Als de gegevens worden gebruikt voor trainingsgegevens, is het mogelijk dat mensen later bepaalde grote bedrijfsgeheimen te weten komen door simpelweg ChatGPT te vragen.
Het Britse National Cyber Security Centre (NCSC) voegde de mogelijke risico's van het delen van gegevens met ChatGPT toe door te zeggen dat zelfs als het invoeren van informatie in een zoekopdracht er niet toe leidt dat potentieel privégegevens worden ingevoerd in het grote taalmodel (LLM), de vraag nog steeds zal bestaan. zichtbaar zijn voor de organisatie of het bedrijf dat de LLM levert, in het geval van ChatGPT is dit OpenAI.
Het NCSC voegde eraan toe dat online opgeslagen zoekopdrachten ook het potentieel hebben om te worden gehackt, gelekt of zelfs openbaar toegankelijk te worden.
Datalekken die hebben plaatsgevonden
Het probleem van vertrouwelijkheid en privacy van gebruikersgegevens die ChatGPT verzamelt, heeft zich onlangs voorgedaan toen gebruikers op 20 maart gesprekken konden bekijken die niet in hun geschiedenis staan.
Op 22 maart bevestigde Sam Altman, CEO van OpenAI, snel een fout in ChatGPT waardoor sommige gebruikers de gesprekstitels van andere gebruikers konden bekijken. Altman zei dat het bedrijf zich 'verschrikkelijk' voelde, maar dat belangrijke fouten met succes waren gecorrigeerd.
Gebruik van ChatGPT op de werkplek
Volgens onderzoek van de op carrière gebaseerde sociale netwerkapp Fishbowl gebruikt minstens 68% van de werknemers die ChatGPT gebruiken dit zonder dat hun werkgever hiervan op de hoogte is.
Ondertussen bleek uit onderzoek uitgevoerd door Cyberhaven Labs onder 1.6 miljoen werknemers in sectoroverschrijdende bedrijven die Cyberhaven-producten gebruikten dat 8.2% van de werknemers ChatGPT minstens één keer op het werk had gebruikt.
Uit eerder onderzoek van Cyberhaven in februari bleek dat 11% van wat werknemers in ChatGPT plakken, gevoelige gegevens zijn. Cyberhaven merkte op dat er tussen 100,000 februari en 26 maart 4 gemiddeld per 2023 werknemers 199 incidenten waren met betrekking tot het uploaden van intern specifieke vertrouwelijke gegevens naar ChatGPT en 173 incidenten met het uploaden van klantgegevens, evenals 159 incidenten met het uploaden van broncode.
Er kan worden geconcludeerd dat, hoewel sommige bedrijven hebben geprobeerd de toegang tot ChatGPT te blokkeren, het gebruik exponentieel blijft toenemen en dat werknemers manieren blijven vinden om toegang te krijgen tot de AI-chatbot, waaronder het gebruik van een proxy om veel van deze netwerk-chatbots te omzeilen. gebaseerde beveiligingstools ondanks de mogelijke risico's van het delen van bedrijfsgegevens, zoals hierboven uitgelegd.
De privacyrisico’s die inherent zijn aan het gebruik van ChatGPT moeten gebruikers eraan herinneren voorzichtiger te zijn met de informatie die ze delen met de AI-chatbot. En houd er rekening mee dat Open AI, ondanks de potentiële voordelen, een particuliere onderneming met winstoogmerk is waarvan de commerciële belangen en verplichtingen niet noodzakelijkerwijs aansluiten bij de behoeften van de grotere samenleving.