Seit seiner Einführung am 30. November 2022 hat ChatGPT aufgrund seiner Intelligenz die Aufmerksamkeit vieler auf sich gezogen. Wie könnte es nicht sein? Durch die Schaffung eines automatischen Dialogsystems kann ChatGPT Informationen bereitstellen und alle Fragen per Chat mit menschenähnlicher Antwortqualität beantworten.
Inhaltsverzeichnis
Mit seiner Fähigkeit, qualitativ hochwertige Texte zu erstellen, kann ChatGPT die Aktivitäten seiner Benutzer erheblich positiv verändern.
Doch hinter der Präsenz von ChatGPT mit all seinen Vorteilen, die vielen Menschen helfen können, kann es auch eine Bedrohung und Gefahr für viele Marken und Technologieunternehmen darstellen.
Unternehmen, die die Verwendung von ChatGPT verbieten
Zuletzt hat sich Amazon anderen Unternehmen wie Walmart Global Tech, Microsoft, JP Morgan und Verizon angeschlossen, die ihren Mitarbeitern zuvor die Nutzung oder Eingabe vertraulicher Informationen in ChatGPT verboten oder eingeschränkt haben.
Amazon selbst warnt alle Mitarbeiter und Mitarbeiter davor, ChatGPT zum Schreiben oder Teilen von bei ChatGPT registriertem Code zur Vervollständigung zu verwenden.
Dies wurde direkt von einem Amazon-Anwalt auf dem unternehmensinternen Slack-Kanal übermittelt, als er Mitarbeiterfragen dazu beantwortete, ob es offizielle Anweisungen zur Nutzung von ChatGPT auf Arbeitsgeräten gebe.
In seinem Briefing sagte der Anwalt, die Mitarbeiter seien aufgefordert worden, bestehende Unternehmensgeheimnisse zu befolgen und nicht mit ChatGPT zu interagieren und vertrauliche Amazon-Informationen an ChatGPT weiterzugeben, nachdem das Unternehmen festgestellt hatte, dass einige seiner Antworten der internen Situation von Amazon ähnelten.
Der Anwalt betonte außerdem, dass alle Eingaben, die seine Mitarbeiter in die KI einspeisen, als wiederholte Trainingsdaten für ChatGPT dienen könnten. Das Unternehmen möchte nicht, dass die Ergebnisse vertrauliche Unternehmensinformationen enthalten oder ihnen ähneln.
Mögliche Risiken beim Teilen wichtiger Daten mit ChatGPT
Die Sorge von Amazon ist sicherlich nicht unbegründet. Obwohl ChatGPT behauptet, dass es keine Informationen speichert, die Benutzer in Konversationen eingeben, „lernt“ es aus jeder Konversation. Dies bedeutet, dass es keine Sicherheitsgarantie für diese Kommunikation gibt, wenn Benutzer über das Internet Informationen in Gespräche mit ChatGPT eingeben.
Die Frage der Transparenz über die mit ChatGPT geteilten Daten wurde auch von einem Dozenten für Computerlinguistik an der University of Washington in Frage gestellt, der sagte, dass OpenAI, das Unternehmen, das ChatGPT entwickelt hat, bei der Datennutzung alles andere als transparent sei. Wenn die Daten für Trainingsdaten verwendet werden, besteht die Möglichkeit, dass Personen später einfach durch eine Anfrage bei ChatGPT an bestimmte große Unternehmensgeheimnisse gelangen.
Das britische National Cyber Security Centre (NCSC) fügte die möglichen Risiken des Datenaustauschs mit ChatGPT hinzu, indem es erklärte, dass selbst wenn die Eingabe von Informationen in eine Abfrage nicht dazu führt, dass potenziell private Daten in das Large Language Model (LLM) eingegeben werden, die Frage dennoch gestellt wird für die Organisation oder Firma sichtbar sein, die das LLM bereitstellt, im Fall von ChatGPT ist es OpenAI.
Das NCSC fügte hinzu, dass online gespeicherte Abfragen auch das Potenzial haben, gehackt zu werden, durchgesickert zu werden oder sogar öffentlich zugänglich zu werden.
Aufgetretene Datenlecks
Das Problem der Vertraulichkeit und des Datenschutzes der von ChatGPT erfassten Benutzerdaten ist kürzlich aufgetreten, als Benutzer am 20. März Konversationen anzeigen konnten, die nicht in ihrem Verlauf enthalten waren.
Am 22. März bestätigte Sam Altman, CEO von OpenAI, schnell einen Fehler in ChatGPT, der es einigen Benutzern ermöglichte, die Konversationstitel anderer Benutzer anzuzeigen. Altman sagte, das Unternehmen habe sich „schrecklich“ gefühlt, aber erhebliche Fehler seien erfolgreich korrigiert worden.
Verwendung von ChatGPT am Arbeitsplatz
Laut einer Studie der karrierebasierten sozialen Netzwerk-App Fishbowl nutzen mindestens 68 % der Arbeitnehmer, die ChatGPT nutzen, es ohne Wissen ihres Arbeitgebers.
Unterdessen ergab eine von Cyberhaven Labs durchgeführte Untersuchung an 1.6 Millionen Arbeitnehmern in branchenübergreifenden Unternehmen, die Cyberhaven-Produkte nutzen, dass 8.2 % der Arbeitnehmer ChatGPT mindestens einmal am Arbeitsplatz genutzt hatten.
Frühere Untersuchungen von Cyberhaven im Februar ergaben, dass 11 % der von Mitarbeitern in ChatGPT eingegebenen Daten vertrauliche Daten sind. Cyberhaven stellte fest, dass es im Zeitraum vom 100,000. Februar bis 26. März 4 pro 2023 Mitarbeiter durchschnittlich 199 Vorfälle beim Hochladen interner vertraulicher Daten auf ChatGPT und 173 Vorfälle beim Hochladen von Kundendaten sowie 159 Vorfälle beim Hochladen von Quellcode gab.
Daraus lässt sich schließen, dass, obwohl einige Unternehmen versucht haben, den Zugriff auf ChatGPT zu blockieren, die Nutzung weiterhin exponentiell zunimmt und Mitarbeiter immer wieder Wege finden, auf den KI-Chatbot zuzugreifen, unter anderem durch die Verwendung eines Proxys, um viele dieser Netzwerk-Netzwerke zu umgehen. Obwohl die Weitergabe von Unternehmensdaten Risiken mit sich bringen kann, wie oben erläutert, verwenden wir Sicherheitstools.
Die mit der Verwendung von ChatGPT verbundenen Datenschutzrisiken sollten Benutzer daran erinnern, vorsichtiger damit zu sein, welche Informationen sie mit dem KI-Chatbot teilen. Und bedenken Sie, dass Open AI trotz seiner potenziellen Vorteile ein privates, gewinnorientiertes Unternehmen ist, dessen kommerzielle Interessen und Erfordernisse nicht unbedingt mit den Bedürfnissen der größeren Gesellschaft übereinstimmen.