Seit seiner Einführung am 30. November 2022 hat ChatGPT aufgrund seiner Intelligenz die Aufmerksamkeit vieler auf sich gezogen. Wie konnte es nicht sein? Durch die Schaffung eines automatischen Dialogsystems kann ChatGPT Informationen bereitstellen und alle Fragen per Chat mit einer menschenähnlichen Antwortqualität beantworten.
Inhaltsverzeichnis
Mit seiner Fähigkeit, qualitativ hochwertigen Text zu produzieren, kann ChatGPT die Aktivitäten seiner Benutzer erheblich positiv verändern.
Hinter der Anwesenheit von ChatGPT mit all seinen Vorteilen, die vielen Menschen helfen können, kann es jedoch auch eine Bedrohung und Gefahr für viele Marken und Technologieunternehmen darstellen.
Unternehmen, die die Verwendung von ChatGPT verbieten
Vor kurzem hat sich Amazon anderen Unternehmen wie Walmart Global Tech, Microsoft, JP Morgan und Verizon angeschlossen, die ihren Mitarbeitern zuvor verboten oder eingeschränkt haben, vertrauliche Informationen in ChatGPT zu verwenden oder einzugeben.
Amazon selbst warnt alle Mitarbeiter und Mitarbeiter davor, ChatGPT zu verwenden, um Code zu schreiben oder zu teilen, der bei ChatGPT zur Vervollständigung registriert ist.
Dies wurde direkt von einem Amazon-Anwalt auf dem firmeninternen Slack-Kanal übermittelt, als er Mitarbeiterfragen beantwortete, ob es offizielle Anweisungen zur Verwendung von ChatGPT auf Arbeitsgeräten gab.
In ihrem Briefing sagte der Anwalt, die Mitarbeiter seien aufgefordert worden, bestehende Firmengeheimnisse zu befolgen und nicht mit vertraulichen Informationen von Amazon zu interagieren und ChatGPT zur Verfügung zu stellen, nachdem das Unternehmen einige seiner Antworten gefunden hatte, die der internen Situation von Amazon ähneln.
Der Anwalt betonte auch, dass alle Eingaben, die seine Mitarbeiter der KI zur Verfügung stellen, als wiederholte Trainingsdaten für ChatGPT dienen könnten. Das Unternehmen möchte nicht, dass die Ergebnisse vertrauliche Unternehmensinformationen enthalten oder ihnen ähneln.
Mögliche Risiken beim Teilen wichtiger Daten mit ChatGPT
Die Sorge von Amazon ist sicherlich nicht unbegründet. Obwohl ChatGPT behauptet, dass es keine Informationen speichert, die Benutzer in Konversationen eingeben, „lernt“ es aus jeder Konversation. Dies bedeutet, dass es keine Sicherheitsgarantie für diese Kommunikation gibt, wenn Benutzer Informationen in Gespräche mit ChatGPT über das Internet eingeben.
Die Frage der Transparenz über die mit ChatGPT geteilten Daten wurde auch von einem Dozenten für Computerlinguistik der University of Washington in Frage gestellt, der sagte, dass OpenAI, das Unternehmen, das ChatGPT entwickelt hat, weit davon entfernt ist, seine Datennutzung transparent zu machen. Wenn die Daten für Trainingsdaten verwendet werden, ist es möglich, dass Personen später bestimmte große Firmengeheimnisse erhalten, indem sie einfach ChatGPT fragen.
Das britische National Cyber Security Centre (NCSC) fügte die möglichen Risiken des Datenaustauschs mit ChatGPT hinzu, indem es sagte, dass selbst wenn die Eingabe von Informationen in eine Abfrage nicht dazu führt, dass potenziell private Daten in das Large Language Model (LLM) eingegeben werden, die Frage bestehen bleibt für die Organisation oder Firma sichtbar sein, die das LLM bereitstellt, im Fall von ChatGPT ist es OpenAI.
Das NCSC fügte hinzu, dass online gespeicherte Abfragen auch das Potenzial haben, gehackt, durchgesickert oder sogar öffentlich zugänglich zu werden.
Datenlecks, die aufgetreten sind
Das Problem der Vertraulichkeit und des Datenschutzes von Benutzerdaten, die ChatGPT sammelt, ist kürzlich aufgetreten, als Benutzer am 20. März Konversationen anzeigen können, die nicht in ihrem Verlauf sind.
Am 22. März bestätigte Sam Altman, CEO von OpenAI, schnell einen Fehler in ChatGPT, der es einigen Benutzern ermöglichte, die Konversationstitel anderer Benutzer anzuzeigen. Altman sagte, das Unternehmen fühle sich „schrecklich“, aber bedeutende Fehler seien erfolgreich korrigiert worden.
Verwendung von ChatGPT am Arbeitsplatz
Laut Untersuchungen der karrierebasierten sozialen Netzwerk-App Fishbowl verwenden mindestens 68 % der Arbeitnehmer, die ChatGPT verwenden, es ohne Wissen ihres Arbeitgebers.
Unterdessen ergab eine von Cyberhaven Labs an 1,6 Millionen Arbeitnehmern in branchenübergreifenden Unternehmen, die Cyberhaven-Produkte verwenden, durchgeführte Untersuchung, dass 8,2 % der Arbeitnehmer ChatGPT mindestens einmal bei der Arbeit verwendet hatten.
Frühere von Cyberhaven im Februar durchgeführte Untersuchungen ergaben, dass 11 % dessen, was Mitarbeiter in ChatGPT einfügen, sensible Daten sind. Cyberhaven stellte fest, dass es im Durchschnitt vom 26. Februar bis 4. März 2023 pro 100.000 Mitarbeiter 199 Vorfälle gab, bei denen intern spezifische vertrauliche Daten auf ChatGPT hochgeladen wurden, und 173 Vorfälle, bei denen Kundendaten hochgeladen wurden, sowie 159 Vorfälle, bei denen Quellcode hochgeladen wurde.
Es kann geschlussfolgert werden, dass, obwohl einige Unternehmen versucht haben, den Zugang zu ChatGPT zu blockieren, die Nutzung weiterhin exponentiell zunimmt und Mitarbeiter immer wieder Wege finden, auf den KI-Chatbot zuzugreifen, von denen einer darin besteht, einen Proxy zu verwenden, um viele dieser Netzwerke zu umgehen. basierte Sicherheitstools trotz der oben erläuterten Möglichkeit von Risiken bei der Weitergabe von Unternehmensdaten.
Die mit der Verwendung von ChatGPT verbundenen Datenschutzrisiken sollten Benutzer daran erinnern, vorsichtiger damit umzugehen, welche Informationen sie mit dem KI-Chatbot teilen. Und denken Sie daran, dass Open AI trotz ihrer potenziellen Vorteile ein privates, gewinnorientiertes Unternehmen ist, dessen kommerzielle Interessen und Imperative nicht unbedingt mit den Bedürfnissen der Gesellschaft im Allgemeinen übereinstimmen.