Depuis son lancement le 30 novembre 2022, ChatGPT a attiré l'attention de beaucoup en raison de son intelligence. Comment pourrait-il en être autrement? En créant un système de dialogue automatique, ChatGPT peut fournir des informations et répondre à toutes les questions via le chat avec une qualité de réponse proche de celle d'un humain.
Table des matières
Grâce à sa capacité à produire du texte de haute qualité, ChatGPT peut apporter des changements positifs significatifs aux activités de ses utilisateurs.
Cependant, derrière la présence de ChatGPT, avec tous ses avantages qui peuvent aider de nombreuses personnes, il peut également constituer une menace et un danger pour de nombreuses marques et entreprises technologiques.
Entreprises qui interdisent l’utilisation de ChatGPT
Plus récemment, Amazon a rejoint d'autres sociétés telles que Walmart Global Tech, Microsoft, JP Morgan et Verizon, qui avaient précédemment interdit ou restreint à leurs employés l'utilisation ou la saisie d'informations confidentielles dans ChatGPT.
Amazon lui-même avertit tout le personnel et les employés de ne pas utiliser ChatGPT pour écrire ou partager du code enregistré avec ChatGPT pour le compléter.
Cela a été transmis directement par un avocat d'Amazon sur le canal Slack interne de l'entreprise en répondant aux questions des employés sur l'existence d'instructions officielles pour l'utilisation de ChatGPT sur les appareils de travail.
Dans son briefing, l'avocat a déclaré que le personnel avait été invité à suivre les secrets d'entreprise existants et à ne pas interagir avec Amazon et à ne pas fournir d'informations confidentielles à Amazon à ChatGPT après que l'entreprise ait trouvé certaines de ses réponses similaires à la situation interne d'Amazon.
L'avocat a également souligné que toute contribution de leurs employés à l'IA pourrait servir de données de formation répétées pour ChatGPT. La société ne souhaite pas que les résultats contiennent ou ressemblent à des informations confidentielles de l'entreprise.
Risques possibles liés au partage de données importantes avec ChatGPT
L'inquiétude d'Amazon n'est certainement pas sans fondement. Bien que ChatGPT affirme ne stocker aucune information saisie par les utilisateurs dans les conversations, il « apprend » de chaque conversation. Cela signifie qu'il n'y a aucune garantie de sécurité dans ces communications lorsque les utilisateurs saisissent des informations dans des conversations avec ChatGPT via Internet.
La question de la transparence sur les données partagées avec ChatGPT a également été remise en question par un professeur de linguistique informatique de l'Université de Washington qui a déclaré qu'OpenAI, la société qui a créé ChatGPT, est loin d'être transparente sur son utilisation des données. Si les données sont utilisées pour la formation, il est possible que des personnes obtiennent ultérieurement certains secrets importants de l'entreprise simplement en demandant à ChatGPT.
Le National Cyber Security Centre (NCSC) du Royaume-Uni a ajouté les risques possibles liés au partage de données avec ChatGPT en affirmant que même si la saisie d'informations dans une requête n'entraîne pas la saisie de données potentiellement privées dans le modèle de langage étendu (LLM), la question restera être visible par l'organisation ou l'entreprise fournissant le LLM, dans le cas de ChatGPT, il s'agit d'OpenAI.
Le NCSC a ajouté que les requêtes stockées en ligne peuvent également être piratées, divulguées ou même devenir accessibles au public.
Fuites de données survenues
Le problème de confidentialité et de confidentialité des données utilisateur collectées par ChatGPT s'est produit récemment lorsque les utilisateurs peuvent visualiser des conversations qui ne figurent pas dans leur historique le 20 mars.
Le 22 mars, Sam Altman, PDG d'OpenAI, a rapidement confirmé une erreur dans ChatGPT qui permettait à certains utilisateurs de voir les titres des conversations d'autres utilisateurs. Altman a déclaré que l'entreprise se sentait « horrible », mais que des erreurs importantes avaient été corrigées avec succès.
Utilisation de ChatGPT sur le lieu de travail
Selon une étude réalisée par l'application de réseau social axée sur la carrière Fishbowl, au moins 68 % des travailleurs qui utilisent ChatGPT l'utilisent à l'insu de leur employeur.
Parallèlement, une étude menée par Cyberhaven Labs auprès de 1.6 million de travailleurs d'entreprises intersectorielles utilisant les produits Cyberhaven a révélé que 8.2 % des travailleurs avaient utilisé ChatGPT au moins une fois au travail.
Une étude précédente menée par Cyberhaven en février a révélé que 11 % de ce que les employés collent dans ChatGPT sont des données sensibles. Cyberhaven a noté qu'en moyenne, pour 100,000 26 employés, du 4 février au 2023 mars 199, il y a eu 173 incidents de téléchargement de données confidentielles spécifiques en interne vers ChatGPT et 159 incidents de téléchargement de données client, ainsi que XNUMX incidents de téléchargement de code source.
On peut en conclure que bien que certaines entreprises aient tenté de bloquer l'accès à ChatGPT, l'utilisation continue d'augmenter de façon exponentielle et les travailleurs continuent de trouver des moyens d'accéder au chatbot IA, dont l'un consiste à utiliser un proxy pour contourner bon nombre de ces réseaux. des outils de sécurité basés sur la sécurité malgré la possibilité de risques liés au partage des données de l'entreprise comme expliqué ci-dessus.
Les risques de confidentialité inhérents à l'utilisation de ChatGPT devraient rappeler aux utilisateurs d'être plus prudents quant aux informations qu'ils partagent avec le chatbot IA. Et gardez à l’esprit que malgré ses avantages potentiels, Open AI est une entreprise privée à but lucratif dont les intérêts et impératifs commerciaux ne correspondent pas nécessairement aux besoins de la société dans son ensemble.