Farih.co.id
Home Teknologi Apakah ChatGPT Aman? 6 Risiko Keamanan Siber dari Chatbot OpenAI

Apakah ChatGPT Aman? 6 Risiko Keamanan Siber dari Chatbot OpenAI

man using chatgpt dark mode

Meskipun banyak penduduk asli digital memuji ChatGPT, beberapa khawatir itu lebih berbahaya daripada kebaikan. Laporan berita tentang penjahat yang membajak AI telah beredar di internet, meningkatkan kegelisahan di kalangan skeptis. Mereka bahkan menganggap ChatGPT sebagai alat yang berbahaya.


AI chatbot tidak sempurna, tetapi Anda tidak harus menghindarinya sama sekali. Inilah semua yang harus Anda ketahui tentang bagaimana penjahat menyalahgunakan ChatGPT dan apa yang dapat Anda lakukan untuk menghentikannya.


Akankah ChatGPT Membahayakan Informasi Pribadi Anda?

Sebagian besar masalah keamanan front-end tentang ChatGPT berasal dari spekulasi dan laporan yang tidak diverifikasi. Platform ini baru diluncurkan pada November 2022. Wajar jika pengguna baru memiliki kesalahpahaman tentang privasi dan keamanan alat yang tidak dikenal.

Berdasarkan Ketentuan penggunaan OpenAIberikut cara ChatGPT menangani data berikut:

Informasi Identifikasi Pribadi

Rumor mengatakan bahwa ChatGPT menjual informasi identitas pribadi (PII).

Platform ini diluncurkan oleh OpenAI, laboratorium penelitian AI terkemuka yang didanai oleh investor teknologi seperti Microsoft dan Elon Musk. ChatGPT hanya boleh menggunakan data pelanggan untuk menyediakan layanan yang disebutkan dalam Kebijakan pribadi.

Apalagi, ChatGPT meminta informasi minimal. Anda dapat membuat akun hanya dengan nama dan alamat email Anda.

Percakapan

OpenAI menjaga keamanan percakapan ChatGPT, tetapi berhak untuk memantaunya. Pelatih AI terus mencari area peningkatan. Karena platform terdiri dari kumpulan data yang luas namun terbatas, menyelesaikan kesalahan, bug, dan kerentanan memerlukan pembaruan di seluruh sistem.

Namun, OpenAI hanya dapat memantau konvoi untuk tujuan penelitian. Mendistribusikan atau menjualnya kepada pihak ketiga melanggar ketentuan penggunaannya sendiri.

Informasi Publik

Menurut BBC, OpenAI melatih ChaGPT dalam 300 miliar kata. Itu mengumpulkan data dari halaman web publik, seperti platform media sosial, situs web bisnis, dan bagian komentar. Kecuali Anda keluar dari jaringan dan menghapus jejak digital Anda, ChatGPT kemungkinan besar memiliki informasi Anda.

Risiko Keamanan Apa yang Dihadirkan ChatGPT?

Meskipun ChatGPT pada dasarnya tidak berbahaya, platform ini tetap menghadirkan risiko keamanan. Penjahat dapat melewati batasan untuk melakukan berbagai serangan dunia maya.

1. Email Phishing yang Meyakinkan

Membuat ChatGPT Tulis Email Spam

Alih-alih menghabiskan berjam-jam menulis email, penjahat menggunakan ChatGPT. Ini cepat dan akurat. Model bahasa tingkat lanjut (seperti GPT-3.5 dan GPT-4) dapat menghasilkan ratusan email phishing yang koheren dan meyakinkan dalam hitungan menit. Mereka bahkan mengadopsi nada dan gaya penulisan yang unik.

Karena ChatGPT mempersulit untuk menemukan upaya peretasan, berhati-hatilah sebelum menjawab email. Sebagai aturan umum, hindari membocorkan informasi. Perhatikan bahwa perusahaan dan organisasi yang sah jarang meminta PII rahasia melalui email acak.

Belajar mengenali upaya peretasan. Meskipun penyedia email memfilter pesan spam, beberapa yang licik bisa lolos. Anda masih harus tahu seperti apa pesan phishing itu.

2. Pencurian Data

ChatGPT menggunakan LLM sumber terbuka, yang dapat dimodifikasi oleh siapa saja. Pembuat kode yang mahir dalam model bahasa besar (LLM) dan pembelajaran mesin sering kali mengintegrasikan model AI yang telah dilatih sebelumnya ke dalam sistem lama mereka. Melatih AI pada kumpulan data baru mengubah fungsionalitas. Misalnya, ChatGPT menjadi ahli kebugaran semu jika Anda memberinya resep dan rutinitas olahraga.

Meskipun kolaboratif dan nyaman, sumber terbuka membuat teknologi rentan terhadap penyalahgunaan. Penjahat terampil sudah mengeksploitasi ChatGPT. Mereka melatihnya pada data curian dalam jumlah besar, mengubah platform menjadi basis data pribadi untuk penipuan.

Ingat: Anda tidak memiliki kendali atas cara penjahat beroperasi. Pendekatan terbaik adalah menghubungi Federal Trade Commission (FTC) begitu Anda melihat tanda-tanda pencurian identitas.

3. Produksi Malware

Baris Kode Dengan Warna Berbeda di Layar Hitam

ChatGPT menulis cuplikan kode yang dapat digunakan dalam berbagai bahasa pemrograman. Sebagian besar sampel memerlukan modifikasi minimal agar berfungsi dengan baik, terutama jika Anda menyusun prompt yang ringkas. Anda dapat memanfaatkan fitur ini untuk mengembangkan aplikasi dan situs.

Karena ChatGPT dilatih pada miliaran kumpulan data, ia juga mengetahui praktik terlarang, seperti mengembangkan malware dan virus. OpenAI melarang chatbot menulis kode berbahaya. Tapi penjahat melewati batasan ini dengan merestrukturisasi prompt dan mengajukan pertanyaan yang tepat.

Foto di bawah menunjukkan bahwa ChatGPT menolak penulisan kode untuk tujuan jahat.

ChatGPT Menolak Menulis Kode untuk Virus Trojan

Sementara itu, foto di bawah ini menunjukkan bahwa ChatGPT akan memberi Anda informasi berbahaya jika Anda menyusun permintaan Anda dengan benar.

ChatGPT Menulis Cuplikan Kode untuk Virus

4. Pencurian Kekayaan Intelektual

Blogger yang tidak etis memutar konten menggunakan ChatGPT. Karena platform berjalan pada LLM tingkat lanjut, ia dapat dengan cepat menyusun ulang ribuan kata untuk menghindari tag plagiarisme.

ChatGPT mengubah teks di bawah ini dalam 10 detik.

Teks Parafrase ChatGPT untuk Menghindari Plagiarisme

Tentu saja, pemintalan masih tergolong plagiarisme. Artikel AI yang diparafrasakan terkadang diberi peringkat secara kebetulan, tetapi Google umumnya lebih memilih konten asli dari sumber yang memiliki reputasi baik. Trik murah dan peretasan SEO tidak dapat mengalahkan tulisan berkualitas tinggi dan abadi.

Juga, Google merilis beberapa pembaruan inti setiap tahun. Ini akan segera fokus pada penghapusan potongan buatan AI yang malas dan tidak orisinal dari SERP.

5. Menghasilkan Tanggapan Tidak Etis

Model bahasa AI tidak memiliki bias. Mereka memberikan jawaban dengan menganalisis permintaan pengguna dan menarik data dari database yang ada.

Ambil ChatGPT sebagai contoh. Saat Anda mengirim prompt, prompt akan merespons berdasarkan kumpulan data yang digunakan OpenAI untuk pelatihan.

Meskipun kebijakan konten ChatGPT memblokir permintaan yang tidak pantas, pengguna mengabaikannya dengan perintah jailbreak. Mereka memberinya instruksi yang tepat dan cerdas. ChatGPT menghasilkan respons di bawah ini jika Anda memintanya untuk menggambarkan karakter fiksi psikopat.

Meminta ChatGPT untuk Menghasilkan Jawaban Berbahaya

Kabar baiknya adalah OpenAI tidak kehilangan kendali atas ChatGPT. Upaya berkelanjutannya dalam memperketat pembatasan menghentikan ChatGPT menghasilkan respons yang tidak etis, terlepas dari masukan pengguna. Jailbreaking tidak akan semudah bergerak maju.

6. Quid Pro Quo

Mencari ChatGPT di Play Store

Pesatnya pertumbuhan teknologi baru yang tidak dikenal seperti ChatGPT menciptakan peluang untuk serangan quid pro quo. Itu adalah taktik rekayasa sosial di mana penjahat memikat korban dengan penawaran palsu.

Kebanyakan orang belum menjelajahi ChatGPT. Dan peretas mengeksploitasi kebingungan tersebut dengan menyebarkan promosi, email, dan pengumuman yang menyesatkan.

Kasus yang paling terkenal melibatkan aplikasi palsu. Pengguna baru tidak tahu bahwa mereka hanya dapat mengakses ChatGPT melalui OpenAI. Mereka tanpa sadar mengunduh program dan ekstensi berisi spam.

Sebagian besar hanya ingin mengunduh aplikasi, tetapi yang lain mencuri informasi pengenal pribadi. Penjahat menginfeksi mereka dengan malware dan tautan phishing. Misalnya, pada Maret 2023, ekstensi Chrome ChatGPT palsu mencuri kredensial Facebook dari 2.000+ pengguna setiap hari.

Untuk memerangi upaya quid pro quo, hindari aplikasi pihak ketiga. OpenAI tidak pernah merilis aplikasi seluler resmi, program komputer, atau ekstensi browser untuk ChatGPT. Apa pun yang mengklaim seperti itu adalah penipuan.

Gunakan ChatGPT dengan Aman dan Bertanggung Jawab

ChatGPT bukanlah ancaman dengan sendirinya. Sistem memiliki kerentanan, tetapi tidak akan mengganggu data Anda. Alih-alih takut pada teknologi AI, teliti bagaimana penjahat memasukkannya ke dalam taktik rekayasa sosial. Dengan begitu, Anda dapat melindungi diri sendiri secara proaktif.

Namun jika Anda masih ragu dengan ChatGPT, cobalah Bing. Bing baru menampilkan chatbot bertenaga AI yang berjalan pada GPT-4, menarik data dari internet, dan mengikuti langkah-langkah keamanan yang ketat. Anda mungkin merasa lebih cocok dengan kebutuhan Anda.

Comment
Share:

Leave a Reply

Your email address will not be published. Required fields are marked *

Ad