Dal suo lancio il 30 novembre 2022, ChatGPT ha attirato l'attenzione di molti grazie alla sua intelligenza. Come potrebbe non essere? Creando un sistema di dialogo automatico, ChatGPT può fornire informazioni e rispondere a tutte le domande tramite chat con una qualità di risposta simile a quella umana.
Sommario
Con la sua capacità di produrre testo di alta qualità, ChatGPT può apportare cambiamenti positivi in modo significativo alle attività dei suoi utenti.
Tuttavia, dietro la presenza di ChatGPT, con tutti i suoi vantaggi che possono aiutare molte persone, può anche rappresentare una minaccia e un pericolo per molti marchi e aziende tecnologiche.
Aziende che vietano l'uso di ChatGPT
Più di recente, Amazon si è unita ad altre società come Walmart Global Tech, Microsoft, JP Morgan e Verizon, che in precedenza avevano vietato o limitato ai propri dipendenti l'utilizzo o l'inserimento di informazioni riservate in ChatGPT.
La stessa Amazon avverte tutto il personale e i dipendenti di non utilizzare ChatGPT per scrivere o condividere il codice registrato con ChatGPT per il completamento.
Questo è stato trasmesso direttamente da un avvocato di Amazon sul canale Slack interno dell'azienda quando ha risposto alle domande dei dipendenti sull'esistenza di istruzioni ufficiali per l'utilizzo di ChatGPT sui dispositivi di lavoro.
Nel loro briefing, l'avvocato ha affermato che allo staff è stato chiesto di seguire i segreti aziendali esistenti e di non interagire e fornire alcuna informazione riservata di Amazon a ChatGPT dopo che la società ha trovato alcune delle sue risposte simili alla situazione interna di Amazon.
L'avvocato ha anche sottolineato che qualsiasi input fornito dai propri dipendenti all'IA potrebbe servire come dati di addestramento ripetuti per ChatGPT. La società non desidera che i risultati contengano o assomiglino a informazioni aziendali riservate.
Possibili rischi di condivisione di dati importanti con ChatGPT
La preoccupazione di Amazon non è certo priva di fondamento. Sebbene ChatGPT affermi di non memorizzare alcuna informazione che gli utenti inseriscono nelle conversazioni, "impara" da ogni conversazione. Ciò significa che non vi è alcuna garanzia di sicurezza in queste comunicazioni quando gli utenti inseriscono informazioni nelle conversazioni con ChatGPT attraverso Internet.
La questione della trasparenza sui dati condivisi con ChatGPT è stata messa in discussione anche da un docente di linguistica computazionale dell'Università di Washington che ha affermato che OpenAI, la società che ha creato ChatGPT, è ben lungi dall'essere trasparente sul suo utilizzo dei dati. Se i dati vengono utilizzati per l'addestramento dei dati, è possibile che le persone possano in seguito ottenere alcuni segreti di grandi aziende semplicemente chiedendo a ChatGPT.
Il National Cyber Security Centre (NCSC) del Regno Unito ha aggiunto i possibili rischi della condivisione dei dati con ChatGPT affermando che anche se l'inserimento di informazioni in una query non comporta l'inserimento di dati potenzialmente privati nel modello linguistico di grandi dimensioni (LLM), la domanda sarà comunque essere visibile all'organizzazione o azienda che fornisce il LLM, nel caso di ChatGPT è OpenAI.
L'NCSC ha aggiunto che le query archiviate online hanno anche il potenziale per essere violate, divulgate o persino rese accessibili al pubblico.
Fughe di dati che si sono verificate
Il problema della riservatezza e della privacy dei dati degli utenti raccolti da ChatGPT si è verificato di recente quando gli utenti possono visualizzare le conversazioni che non sono nella loro cronologia il 20 marzo.
Il 22 marzo, il CEO di OpenAI Sam Altman ha rapidamente confermato un errore in ChatGPT che consentiva ad alcuni utenti di visualizzare i titoli delle conversazioni di altri utenti. Altman ha affermato che la società si è sentita "orribile", ma errori significativi sono stati corretti con successo.
Uso di ChatGPT sul posto di lavoro
Secondo una ricerca dell'app di social network basata sulla carriera, Fishbowl, almeno il 68% dei lavoratori che utilizzano ChatGPT lo utilizza all'insaputa del proprio datore di lavoro.
Nel frattempo, una ricerca condotta da Cyberhaven Labs su 1,6 milioni di lavoratori in aziende intersettoriali che utilizzano prodotti Cyberhaven ha rivelato che l'8,2% dei lavoratori ha utilizzato ChatGPT almeno una volta al lavoro.
Una precedente ricerca condotta da Cyberhaven a febbraio ha rivelato che l'11% di ciò che i dipendenti incollano in ChatGPT sono dati sensibili. Cyberhaven ha notato che in media, per 100.000 dipendenti, dal 26 febbraio al 4 marzo 2023, si sono verificati 199 incidenti di caricamento di dati riservati specifici interni su ChatGPT e 173 incidenti di caricamento di dati dei clienti, nonché 159 incidenti di caricamento di codice sorgente.
Si può concludere che sebbene alcune aziende abbiano tentato di bloccare l'accesso a ChatGPT, l'utilizzo continua ad aumentare in modo esponenziale e il lavoratore continua a trovare modi per accedere al chatbot AI, uno dei quali è utilizzare un proxy per aggirare molte di queste reti- basati su strumenti di sicurezza nonostante la possibilità di rischi di condivisione dei dati aziendali come spiegato sopra.
I rischi per la privacy inerenti all'utilizzo di ChatGPT dovrebbero ricordare agli utenti di prestare maggiore attenzione alle informazioni che condividono con il chatbot AI. E tieni presente che, nonostante i suoi potenziali vantaggi, Open AI è un'impresa privata a scopo di lucro i cui interessi e imperativi commerciali non sono necessariamente in linea con le esigenze della società più ampia.