Farih.co.id
Home Teknologi 8 Alasan Mengapa Masalah Keamanan AI Generatif Hanya Akan Memburuk

8 Alasan Mengapa Masalah Keamanan AI Generatif Hanya Akan Memburuk

ai logos on blurred background

AI telah meningkat secara signifikan selama beberapa tahun terakhir. Model bahasa yang canggih dapat membuat novel berdurasi penuh, membuat kode situs web dasar, dan menganalisis soal matematika.


Meski mengesankan, AI generatif juga menghadirkan risiko keamanan. Beberapa orang hanya menggunakan chatbot untuk menyontek saat ujian, tetapi yang lain mengeksploitasinya langsung untuk kejahatan dunia maya. Berikut adalah delapan alasan masalah ini akan bertahan, bukan hanya meskipun kemajuan AI tapi Karena dari mereka juga.


1. Open-Source AI Chatbots Mengungkapkan Kode Back-End

Semakin banyak perusahaan AI yang menyediakan sistem sumber terbuka. Mereka secara terbuka membagikan model bahasa mereka alih-alih menutup atau memilikinya. Ambil Meta sebagai contoh. Tidak seperti Google, Microsoft, dan OpenAI, ini memungkinkan jutaan pengguna mengakses model bahasanya, LLaMA.

Meskipun kode sumber terbuka dapat memajukan AI, itu juga berisiko. OpenAI sudah kesulitan mengontrol ChatGPT, chatbot miliknya, jadi bayangkan apa yang bisa dilakukan penjahat dengan perangkat lunak gratis. Mereka memiliki kendali penuh atas proyek-proyek ini.

Bahkan jika Meta tiba-tiba menarik model bahasanya, lusinan lab AI lainnya telah merilis kodenya. Mari kita lihat HuggingChat. Karena pengembangnya, HuggingFace, bangga akan transparansi, ia menampilkan kumpulan data, model bahasa, dan versi sebelumnya.

Mengakses Kode Sumber Terbuka HuggingFace

2. Trick LLM Anjuran Jailbreaking

AI pada dasarnya amoral. Itu tidak mengerti benar dan salah — bahkan sistem tingkat lanjut mengikuti instruksi pelatihan, pedoman, dan kumpulan data. Mereka hanya mengenali pola.

Untuk memerangi aktivitas terlarang, pengembang mengontrol fungsionalitas dan batasan dengan menetapkan batasan. Sistem AI masih mengakses informasi berbahaya. Tetapi pedoman keamanan mencegah mereka membagikannya dengan pengguna.

Mari kita lihat ChatGPT. Meskipun menjawab pertanyaan umum tentang Trojan, ini tidak akan membahas proses pengembangannya.

ChatGPT Menjelaskan Virus Trojan Tapi Bukan Mengkodekannya

Yang mengatakan, pembatasan tidak mudah. Pengguna melewati batas dengan mengubah kata-kata perintah, menggunakan bahasa yang membingungkan, dan menyusun instruksi yang terperinci secara eksplisit.

Baca prompt jailbreak ChatGPT di bawah ini. Itu mengelabui ChatGPT untuk menggunakan bahasa kasar dan membuat prediksi tak berdasar—kedua tindakan tersebut melanggar pedoman OpenAI.

Jailbreak ChatGPT Dengan DAN Prompt

Inilah ChatGPT dengan pernyataan berani namun salah.

ChatGPT Membuat Prediksi Tanpa Dasar Tentang Harga Bitcoin

3. AI Mengompromikan Keamanan demi Keserbagunaan

Pengembang AI memprioritaskan keserbagunaan daripada keamanan. Mereka menggunakan platform pelatihan sumber daya mereka untuk menyelesaikan berbagai tugas yang lebih beragam, yang pada akhirnya memotong batasan. Lagi pula, pasar memuji chatbot fungsional.

Mari kita bandingkan ChatGPT dan Bing Chat, misalnya. Sementara Bing menampilkan model bahasa yang lebih canggih yang menarik data waktu nyata, pengguna masih berduyun-duyun ke opsi yang lebih serbaguna, ChatGPT. Pembatasan kaku Bing melarang banyak tugas. Alternatifnya, ChatGPT menampilkan platform fleksibel yang menghasilkan keluaran yang sangat berbeda tergantung permintaan Anda

Inilah peran ChatGPT sebagai karakter fiksi.

ChatGPT Roleplaying sebagai Karakter Fiksi Tomie

Dan inilah Bing Chat menolak untuk memainkan persona “tidak bermoral”.

Bing Chat Menolak Roleplay sebagai Karakter Fiksi Tomie

Kode sumber terbuka memungkinkan startup untuk bergabung dalam perlombaan AI. Mereka mengintegrasikannya ke dalam aplikasi mereka alih-alih membuat model bahasa dari awal, menghemat sumber daya yang sangat besar. Bahkan pembuat kode independen bereksperimen dengan kode sumber terbuka.

Sekali lagi, perangkat lunak non-eksklusif membantu memajukan AI, tetapi merilis sistem yang kurang terlatih namun canggih secara massal lebih berbahaya daripada kebaikan. Penjahat akan dengan cepat menyalahgunakan kerentanan. Mereka bahkan mungkin melatih alat AI yang tidak aman untuk melakukan aktivitas terlarang.

Terlepas dari risiko ini, perusahaan teknologi akan terus merilis versi beta yang tidak stabil dari platform berbasis AI. Kecepatan penghargaan ras AI. Mereka kemungkinan akan menyelesaikan bug di kemudian hari daripada menunda peluncuran produk baru.

5. AI Generatif Memiliki Hambatan Masuk yang Rendah

Alat AI menurunkan hambatan masuknya kejahatan. Penjahat dunia maya membuat draf email spam, menulis kode malware, dan membuat tautan phishing dengan mengeksploitasinya. Mereka bahkan tidak membutuhkan pengalaman teknologi. Karena AI sudah mengakses kumpulan data yang sangat besar, pengguna hanya perlu mengakalinya untuk menghasilkan informasi yang berbahaya dan berbahaya.

OpenAI tidak pernah mendesain ChatGPT untuk aktivitas terlarang. Bahkan ada pedoman terhadap mereka. Namun penjahat hampir secara instan mendapatkan malware pengkodean ChatGPT dan menulis email phishing.

Sementara OpenAI dengan cepat menyelesaikan masalah tersebut, OpenAI menekankan pentingnya regulasi sistem dan manajemen risiko. AI matang lebih cepat dari yang diantisipasi siapa pun. Bahkan para pemimpin teknologi khawatir bahwa teknologi super cerdas ini dapat menyebabkan kerusakan besar di tangan yang salah.

6. AI Masih Berkembang

Logo ChatGPT, Bard, Bing, dan Snapchat AI Berdampingan

AI masih berkembang. Ketika penggunaan AI dalam sibernetika dimulai pada tahun 1940, sistem pembelajaran mesin modern dan model bahasa baru saja muncul. Anda tidak dapat membandingkannya dengan implementasi pertama AI. Bahkan alat yang relatif canggih seperti Siri dan Alexa pucat jika dibandingkan dengan chatbot bertenaga LLM.

Meskipun mungkin inovatif, fitur eksperimental juga menimbulkan masalah baru. Kecelakaan profil tinggi dengan teknologi pembelajaran mesin berkisar dari SERP Google yang cacat hingga chatbot yang bias yang melontarkan cercaan rasial.

Tentu saja, pengembang dapat memperbaiki masalah ini. Perhatikan bahwa penjahat tidak akan ragu untuk mengeksploitasi bahkan bug yang tampaknya tidak berbahaya—beberapa kerusakan tidak dapat dipulihkan. Jadi berhati-hatilah saat menjelajahi platform baru.

7. Banyak Yang Belum Paham AI

Sementara masyarakat umum memiliki akses ke model dan sistem bahasa yang canggih, hanya sedikit yang tahu cara kerjanya. Orang harus berhenti memperlakukan AI seperti mainan. Chatbot yang sama yang menghasilkan meme dan menjawab trivia juga membuat kode virus secara massal.

Sayangnya, pelatihan AI terpusat tidak realistis. Pemimpin teknologi global fokus pada peluncuran sistem berbasis AI, bukan sumber daya pendidikan gratis. Akibatnya, pengguna mendapatkan akses ke alat canggih yang nyaris tidak mereka pahami. Publik tidak bisa mengikuti perlombaan AI.

Ambil ChatGPT sebagai contoh. Penjahat dunia maya menyalahgunakan popularitasnya dengan menipu korban dengan spyware yang menyamar sebagai aplikasi ChatGPT. Tak satu pun dari opsi ini berasal dari OpenAI.

Mencari ChatGPT di Google Play Store

8. Peretas Black-Hat Memiliki Lebih Banyak Keuntungan daripada Peretas White-Hat

Peretas topi hitam biasanya memiliki lebih banyak keuntungan daripada peretas etis. Ya, pengujian pena untuk pemimpin teknologi global membayar dengan baik, tetapi hanya sebagian kecil profesional keamanan siber yang mendapatkan pekerjaan ini. Sebagian besar melakukan pekerjaan lepas secara online. Platform seperti HackerOne Dan Kerumunan serangga membayar beberapa ratus dolar untuk bug umum.

Alternatifnya, penjahat menghasilkan puluhan ribu dengan mengeksploitasi ketidakamanan. Mereka mungkin memeras perusahaan dengan membocorkan data rahasia atau melakukan pencurian ID dengan Informasi Identifikasi Pribadi (PII) yang dicuri.

Setiap institusi, kecil atau besar, harus menerapkan sistem AI dengan baik. Berlawanan dengan kepercayaan populer, peretas melampaui startup teknologi dan UKM. Beberapa pelanggaran data paling bersejarah dalam dekade terakhir melibatkan Facebook, Yahoo!, dan bahkan pemerintah AS.

Lindungi Diri Anda Dari Risiko Keamanan AI

Mempertimbangkan poin-poin ini, haruskah Anda menghindari AI sama sekali? Tentu saja tidak. AI pada dasarnya amoral; semua risiko keamanan berasal dari orang yang benar-benar menggunakannya. Dan mereka akan menemukan cara untuk mengeksploitasi sistem AI tidak peduli seberapa jauh perkembangannya.

Alih-alih takut akan ancaman keamanan siber yang menyertai AI, pahami bagaimana Anda dapat mencegahnya. Jangan khawatir: langkah-langkah keamanan sederhana sangat membantu. Tetap waspada terhadap aplikasi AI yang teduh, menghindari hyperlink aneh, dan melihat konten AI dengan skeptis sudah memerangi beberapa risiko.

Comment
Share:

Leave a Reply

Your email address will not be published. Required fields are marked *

Ad