Sejak dilancarkan pada 30 November 2022, ChatGPT telah menarik perhatian ramai kerana kecerdasannya. Bagaimana tidak? Dengan mencipta sistem dialog automatik, ChatGPT boleh memberikan maklumat dan menjawab semua soalan melalui sembang dengan kualiti respons seperti manusia.
Jadual Kandungan
Dengan keupayaannya untuk menghasilkan teks berkualiti tinggi, ChatGPT boleh membawa perubahan positif kepada aktiviti penggunanya dengan ketara.
Namun, di sebalik kehadiran ChatGPT, dengan segala kelebihannya yang boleh membantu ramai orang, ia juga boleh mendatangkan ancaman dan bahaya kepada banyak jenama dan syarikat teknologi.
Syarikat Yang Mengharamkan Penggunaan ChatGPT
Terbaru, Amazon telah menyertai syarikat lain seperti Walmart Global Tech, Microsoft, JP Morgan, dan Verizon, yang sebelum ini telah melarang atau menyekat pekerja mereka daripada menggunakan atau memasukkan maklumat sulit ke ChatGPT.
Amazon sendiri memberi amaran kepada semua kakitangan dan pekerja untuk tidak menggunakan ChatGPT untuk menulis atau berkongsi kod yang didaftarkan dengan ChatGPT untuk disiapkan.
Ini disampaikan secara langsung oleh peguam Amazon di saluran Slack dalaman syarikat apabila menjawab soalan pekerja tentang sama ada terdapat arahan rasmi untuk menggunakan ChatGPT pada peranti kerja.
Dalam taklimat mereka, peguam itu berkata kakitangan itu diminta mengikuti rahsia syarikat sedia ada dan tidak berinteraksi dan memberikan sebarang maklumat sulit Amazon kepada ChatGPT selepas syarikat itu menemui beberapa responsnya serupa dengan situasi dalaman Amazon.
Peguam juga menekankan bahawa sebarang input yang diberikan oleh pekerja mereka kepada AI boleh berfungsi sebagai data latihan berulang untuk ChatGPT, Syarikat itu tidak mahu keputusan mengandungi atau menyerupai maklumat sulit syarikat.
Kemungkinan Risiko Berkongsi Data Penting Dengan ChatGPT
Kebimbangan Amazon pastinya bukan tanpa asas. Walaupun ChatGPT mendakwa bahawa ia tidak menyimpan sebarang maklumat yang dimasukkan pengguna dalam perbualan, ia "belajar" daripada setiap perbualan. Ini bermakna tiada jaminan keselamatan dalam komunikasi ini apabila pengguna memasukkan maklumat ke dalam perbualan dengan ChatGPT melalui internet.
Persoalan ketelusan mengenai data yang dikongsi dengan ChatGPT juga telah dipersoalkan oleh pensyarah linguistik pengiraan dari Universiti Washington yang mengatakan bahawa OpenAI, syarikat yang mencipta ChatGPT, jauh daripada telus mengenai penggunaan datanya. Jika data itu digunakan untuk data latihan, ada kemungkinan orang ramai kemudiannya boleh mendapatkan rahsia syarikat besar tertentu hanya dengan bertanya kepada ChatGPT.
Pusat Keselamatan Siber Kebangsaan UK (NCSC) menambah kemungkinan risiko berkongsi data dengan ChatGPT dengan mengatakan bahawa walaupun memasukkan maklumat ke dalam pertanyaan tidak menyebabkan data peribadi yang berpotensi dimasukkan ke dalam model bahasa besar (LLM), soalan itu akan tetap boleh dilihat oleh organisasi atau syarikat yang menyediakan LLM, dalam kes ChatGPT ia adalah OpenAI.
NCSC menambah bahawa pertanyaan yang disimpan dalam talian juga berpotensi untuk digodam, dibocorkan, atau bahkan boleh diakses secara umum.
Kebocoran Data Yang Berlaku
Masalah kerahsiaan dan privasi data pengguna yang ChatGPT kumpulkan telah berlaku baru-baru ini apabila pengguna boleh melihat perbualan yang tiada dalam sejarah mereka pada 20 Mac.
Pada 22 Mac, Ketua Pegawai Eksekutif OpenAI Sam Altman dengan cepat mengesahkan ralat dalam ChatGPT yang membenarkan sesetengah pengguna melihat tajuk perbualan pengguna lain. Altman berkata syarikat itu berasa 'mengerikan', tetapi kesilapan yang ketara telah berjaya diperbetulkan.
Penggunaan ChatGPT di Tempat Kerja
Menurut penyelidikan oleh aplikasi rangkaian sosial berasaskan kerjaya, Fishbowl, sekurang-kurangnya 68% pekerja yang menggunakan ChatGPT menggunakannya tanpa diketahui oleh majikan mereka.
Sementara itu, penyelidikan yang dijalankan oleh Cyberhaven Labs ke atas 1.6 juta pekerja dalam syarikat merentas industri yang menggunakan produk Cyberhaven mendedahkan bahawa 8.2% pekerja telah menggunakan ChatGPT sekurang-kurangnya sekali di tempat kerja.
Penyelidikan sebelumnya yang dijalankan oleh Cyberhaven pada bulan Februari mendedahkan bahawa 11% daripada apa yang ditampal oleh pekerja ke dalam ChatGPT adalah data sensitif. Cyberhaven menyatakan bahawa secara purata, setiap 100,000 pekerja, dari 26 Februari hingga 4 Mac 2023, terdapat 199 insiden memuat naik data sulit khusus dalaman ke ChatGPT dan 173 insiden memuat naik data pelanggan, serta 159 insiden memuat naik kod sumber.
Dapat disimpulkan bahawa walaupun sesetengah syarikat telah cuba menyekat akses kepada ChatGPT, penggunaan terus meningkat secara eksponen, dan pekerja terus mencari cara untuk mengakses chatbot AI, salah satunya adalah dengan menggunakan proksi untuk mengelilingi kebanyakan rangkaian ini- alat keselamatan berasaskan walaupun terdapat kemungkinan risiko berkongsi data syarikat seperti yang dijelaskan di atas.
Risiko privasi yang wujud dalam menggunakan ChatGPT harus mengingatkan pengguna untuk lebih berhati-hati tentang maklumat yang mereka kongsi dengan chatbot AI. Dan perlu diingat bahawa di sebalik potensi manfaatnya, Open AI ialah sebuah perusahaan swasta yang mengaut keuntungan yang kepentingan dan kepentingan komersilnya tidak semestinya sejajar dengan keperluan masyarakat yang lebih besar.