Depuis son lancement le 30 novembre 2022, ChatGPT a attiré l'attention de beaucoup en raison de son intelligence. Comment pourrait-il en être autrement? En créant un système de dialogue automatique, ChatGPT peut fournir des informations et répondre à toutes les questions via le chat avec une qualité de réponse humaine.
Table des matières
Grâce à sa capacité à produire du texte de haute qualité, ChatGPT peut apporter des changements positifs significatifs aux activités de ses utilisateurs.
Cependant, derrière la présence de ChatGPT, avec tous ses avantages qui peuvent aider de nombreuses personnes, il peut également constituer une menace et un danger pour de nombreuses marques et entreprises technologiques.
Entreprises qui interdisent l'utilisation de ChatGPT
Plus récemment, Amazon a rejoint d'autres sociétés telles que Walmart Global Tech, Microsoft, JP Morgan et Verizon, qui ont précédemment interdit ou restreint à leurs employés l'utilisation ou la saisie d'informations confidentielles dans ChatGPT.
Amazon lui-même avertit tout le personnel et les employés de ne pas utiliser ChatGPT pour écrire ou partager du code enregistré avec ChatGPT pour l'achèvement.
Cela a été transmis directement par un avocat d'Amazon sur le canal Slack interne de l'entreprise lorsqu'il a répondu aux questions des employés sur l'existence d'instructions officielles pour l'utilisation de ChatGPT sur les appareils professionnels.
Dans leur briefing, l'avocat a déclaré que le personnel avait été invité à suivre les secrets de l'entreprise existants et à ne pas interagir avec et à fournir des informations confidentielles d'Amazon à ChatGPT après que l'entreprise eut trouvé certaines de ses réponses similaires à la situation interne d'Amazon.
L'avocat a également souligné que toute contribution fournie par leurs employés à l'IA pourrait servir de données de formation répétées pour ChatGPT. L'entreprise ne souhaite pas que les résultats contiennent ou ressemblent à des informations confidentielles de l'entreprise.
Risques possibles liés au partage de données importantes avec ChatGPT
L'inquiétude d'Amazon n'est certainement pas sans fondement. Bien que ChatGPT affirme qu'il ne stocke aucune information saisie par les utilisateurs dans les conversations, il "apprend" de chaque conversation. Cela signifie qu'il n'y a aucune garantie de sécurité dans ces communications lorsque les utilisateurs entrent des informations dans des conversations avec ChatGPT via Internet.
La question de la transparence sur les données partagées avec ChatGPT a également été remise en question par un professeur de linguistique informatique de l'Université de Washington qui a déclaré qu'OpenAI, la société qui a créé ChatGPT, est loin d'être transparente sur son utilisation des données. Si les données sont utilisées pour des données de formation, il est possible que des personnes obtiennent plus tard certains secrets de grande entreprise simplement en demandant à ChatGPT.
Le National Cyber Security Center (NCSC) du Royaume-Uni a ajouté les risques possibles du partage de données avec ChatGPT en disant que même si la saisie d'informations dans une requête n'entraîne pas la saisie de données potentiellement privées dans le grand modèle de langage (LLM), la question sera toujours être visible par l'organisation ou l'entreprise fournissant le LLM, dans le cas de ChatGPT, il s'agit d'OpenAI.
Le NCSC a ajouté que les requêtes stockées en ligne peuvent également être piratées, divulguées ou même devenir accessibles au public.
Fuites de données qui se sont produites
Le problème de confidentialité et de confidentialité des données des utilisateurs que ChatGPT collecte s'est produit récemment lorsque les utilisateurs peuvent afficher des conversations qui ne figurent pas dans leur historique le 20 mars.
Le 22 mars, le PDG d'OpenAI, Sam Altman, a rapidement confirmé une erreur dans ChatGPT qui permettait à certains utilisateurs de voir les titres de conversation d'autres utilisateurs. Altman a déclaré que la société se sentait "horrible", mais que des erreurs importantes avaient été corrigées avec succès.
Utilisation de ChatGPT sur le lieu de travail
Selon une étude de l'application de réseau social axée sur la carrière, Fishbowl, au moins 68 % des travailleurs qui utilisent ChatGPT l'utilisent à l'insu de leur employeur.
Pendant ce temps, une recherche menée par Cyberhaven Labs sur 1,6 million de travailleurs dans des entreprises intersectorielles utilisant des produits Cyberhaven a révélé que 8,2 % des travailleurs avaient utilisé ChatGPT au moins une fois au travail.
Des recherches précédentes menées par Cyberhaven en février ont révélé que 11 % de ce que les employés collent dans ChatGPT sont des données sensibles. Cyberhaven a noté qu'en moyenne, pour 100 000 employés, du 26 février au 4 mars 2023, il y a eu 199 incidents de téléchargement de données confidentielles spécifiques à l'interne sur ChatGPT et 173 incidents de téléchargement de données client, ainsi que 159 incidents de téléchargement de code source.
On peut en conclure que bien que certaines entreprises aient essayé de bloquer l'accès à ChatGPT, l'utilisation continue d'augmenter de façon exponentielle et le travailleur continue de trouver des moyens d'accéder au chatbot AI, dont l'un consiste à utiliser un proxy pour contourner bon nombre de ces réseaux. outils de sécurité basés malgré la possibilité de risques de partage des données de l'entreprise comme expliqué ci-dessus.
Les risques de confidentialité inhérents à l'utilisation de ChatGPT devraient rappeler aux utilisateurs de faire plus attention aux informations qu'ils partagent avec le chatbot AI. Et gardez à l'esprit que malgré ses avantages potentiels, Open AI est une entreprise privée à but lucratif dont les intérêts commerciaux et les impératifs ne correspondent pas nécessairement aux besoins de la société au sens large.