Bunda sering pakai ChatGPT untuk bekerja? Mungkin perlu mempertimbangkan beberapa hal yang tidak boleh dibagikan ke ChatGPT saat bekerja.
Di era digital yang semakin canggih, kecerdasan buatan seperti ChatGPT sering dijadikan alat bantu untuk meningkatkan produktivitas kerja. Tak sedikit profesional yang menggunakan layanan ini untuk menulis laporan, merangkum dokumen, hingga menyusun strategi pemasaran.
Di balik kemudahan tersebut, tersimpan potensi risiko keamanan yang tidak boleh diabaikan. Apa yang Bunda ketik di dalam ChatGPT bukan sekadar teks yang hilang begitu saja setelah menekan 'Enter'. Percakapan tersebut bisa disimpan, diakses, bahkan digunakan untuk melatih sistem AI di balik layar.
Para pakar keamanan data menekankan bahwa Bunda harus memperlakukan ChatGPT seperti publikasi di internet, anggap semua informasi yang diketik bisa dibaca siapa pun. Mengingat sifatnya berbasis cloud dan dijalankan oleh pihak ketiga, data yang Bunda masukkan dapat tersimpan di server dan bisa saja rentan terhadap peretasan atau penyalahgunaan.
"Asumsi terbaik adalah bahwa siapa pun di dunia dapat membaca apa pun yang Anda pasang di internet, e-mail, media sosial, blog, LLM. Jangan pernah mengunggah apa pun yang tidak ingin Anda baca oleh orang lain," saran Gary Smith, Fletcher Jones Professor of Economics di Pomona College, Pomona College sekaligus penulis Distrust: Big Data, Data-Torturing, and the Assault on Science, mengutip Mashable.
Lalu bagaimana cara menggunakan ChatGPT secara cerdas dan aman saat bekerja? Berikut hal-hal yang tidak boleh Bunda ketik di ChatGPT saat bekerja dan cara melindungi data agar tidak bocor.
Hal yang tidak boleh dibagikan ke ChatGPT saat bekerja
Berikut hal-hal yang Bunda tidak boleh bagikan ke ChatGPT saat bekerja.
1. Informasi rahasia perusahaan
Data internal seperti rencana strategi bisnis, roadmap produk, perjanjian kerja sama, hingga dokumen hukum bersifat sangat sensitif. Memasukkan informasi ini ke dalam ChatGPT sama saja dengan membagikannya ke pihak ketiga.
Meskipun ChatGPT tampak aman, data yang Bunda berikan tetap disimpan di server selama 30 hari dan bisa diakses oleh tim internal OpenAI untuk keperluan pelatihan model, kecuali menonaktifkan riwayat obrolan.
Salah satu contoh nyata datang dari perusahaan Samsung yang karyawannya secara tidak sengaja membocorkan informasi kode internal perusahaan ke ChatGPT. Akibatnya, perusahaan langsung melarang penggunaan ChatGPT di lingkungan kerja mereka.
Ingat, bukan berarti Bunda tidak boleh menggunakan ChatGPT sama sekali, namun berhati-hatilah dalam memilah jenis informasi yang akan diberikan.
2. Kode atau sistem teknologi
Pengembang atau tim IT yang tergoda untuk meminta ChatGPT mengecek atau menulis ulang kode program harus waspada. Jangan pernah memberikan kode yang berkaitan dengan sistem keamanan internal, algoritma kepemilikan, atau aplikasi yang belum dirilis secara publik.
Meskipun terdengar efisien, membagikan kode sensitif ke chatbot dapat membuka celah keamanan yang sangat serius. Jika informasi itu bocor atau dimanfaatkan oleh pihak tak bertanggung jawab, bukan hanya reputasi yang dipertaruhkan, melainkan kelangsungan bisnis Bunda.
3. Data pribadi
Nama lengkap, alamat, nomor KTP, e-mail, hingga informasi kesehatan karyawan atau pelanggan merupakan bentuk data pribadi yang dilindungi oleh pemerintah di banyak negara, termasuk Indonesia.
Jangan pernah mengetik informasi pribadi ke dalam ChatGPT walaupun hanya sebagai contoh. Hal ini tidak hanya berisiko terhadap kebocoran data, tapi juga bisa menyebabkan pelanggaran hukum dan mengakibatkan sanksi serius.
Gunakan placeholder atau data fiktif jika Bunda ingin membuat simulasi dengan ChatGPT.
4. Detail keuangan dan rekening
Informasi seperti laporan keuangan internal, nomor rekening, pengeluaran rahasia, serta data investor tidak boleh dimasukkan ke ChatGPT. Meski chatbot ini menjanjikan kemudahan, namun informasi keuangan yang Bunda ketik bisa saja tersimpan di server OpenAI dan menjadi target peretasan kemudian hari.
Perusahaan jasa keuangan seperti JPMorgan dan Citibank bahkan telah melarang penggunaan ChatGPT oleh karyawannya karena potensi pelanggaran regulasi keuangan yang ketat terhadap komunikasi dengan pihak ketiga.
"Anda mungkin memikirkannya dengan cara yang sama seperti memikirkan kalkulator atau Excel. Anda tidak berpikir bahwa informasi ini akan masuk ke cloud dan akan ada di sana selamanya baik dalam log in di suatu tempat atau dalam model itu sendiri," papar Nader Henein, VP penelitian privasi di Gartner yang memiliki pengalaman dua dekade dalam keamanan siber perusahaan dan perlindungan data.
5. Keluhan internal kepada rekan kerja
Beberapa orang mungkin merasa nyaman 'curhat' kepada AI karena responsnya yang terasa netral dan tanpa penghakiman. Namun perlu diingat, ChatGPT bukan terapis atau tempat aman untuk meluapkan emosi pribadi tentang lingkungan kerja atau konflik internal.
"Meskipun pengguna tahu bahwa mereka berinteraksi dengan program komputer, banyak yang yakin bahwa program tersebut memiliki kecerdasan dan emosi seperti manusia dan senang berbagi perasaan terdalam bahkan rahasia yang paling mereka rahasiakan," ujar Smith.
Semua yang Bunda ketik bisa tersimpan dan digunakan untuk melatih model AI, meskipun identitas telah dihapus. Hal ini bisa menjadi boomerang jika curhatan mengandung informasi sensitif atau dapat mengarah pada pelanggaran etika dan profesionalisme.
ChatGPT adalah alat bantu yang sangat berguna, tapi bukan berarti Bunda bisa sembarangan menggunakannya, terutama untuk hal-hal yang berhubungan dengan pekerjaan. Perlakukan percakapan dengan ChatGPT seperti Bunda mengunggah sesuatu di media sosial.
Jadi, pikirkan dua kali sebelum membagikan informasi apa pun ya, Bunda.
Bagi Bunda yang mau sharing soal parenting dan bisa dapat banyak giveaway, yuk join komunitas HaiBunda Squad. Daftar klik di SINI. Gratis!
(som/som)