Apa itu Mode DAN? Prompt Snapchat AI & ChatGPT Jailbreak
Table of content:
Beberapa Snapchat pengguna telah menemukan cara untuk melakukan jailbreak pada platform chatbot AI Saya dengan mengaktifkan “Mode DAN.” Snapchat pertama kali merilis bot percakapan berbasis ChatGPT, My AI, kepada pelanggan berbayar pada Februari 2023. Dua bulan kemudian, Snapchat membuat bot tersedia untuk semua pengguna secara gratis. Sementara Snap mengatakan itu menempatkan perlindungan untuk mencegah AI dari terlibat dalam percakapan yang tidak pantas, masih ada kekhawatiran tentang keamanannya, terutama jika digunakan oleh anak-anak dan remaja.
Mode DAN, kependekan dari “melakukan apapun sekarang,” adalah jailbreak ChatGPT yang memungkinkan agen AI untuk bertindak di luar batasan normalnya dengan memainkan peran sebagai model dengan batasan yang lebih sedikit. Dengan Mode DAN diaktifkan, chatbot kurang lebih tidak disensor dan dapat menjawab pertanyaan yang biasanya ditolak oleh AI karena alasan etika. Itu dapat menggembar-gemborkan teori konspirasi atau melontarkan opini ofensif. Taktik ini pertama kali menjadi populer di kalangan pengguna ChatGPT OpenAI dan menyebar ke My AI (yang didukung oleh GPT) setelah bot dirilis ke publik.
Snap Tertangkap Ke Jailbreak
DAN Mode diaktifkan oleh prompt atau serangkaian prompt, beberapa versi yang telah beredar Reddit, Twitter, dan GitHub selama berbulan-bulan. Petunjuk garis besar instruksi untuk diikuti chatbot karena mengadopsi “berpura-pura” persona pelanggar aturan. Namun, itu tidak selalu merupakan pertukaran langsung; banyak yang telah menjelaskan prosesnya secara online mengatakan bahwa mereka harus berulang kali mengingatkan chatbot untuk tetap dalam karakter.
Sejak Mode DAN mulai mendapatkan daya tarik di antara pengguna ChatGPT, OpenAI telah mengeluarkan tambalan untuk menindaknya. Hal yang sama tampaknya terjadi dengan versi yang digunakan oleh Snapchat. Banyak permintaan sebelumnya yang mengaktifkan Mode DAN untuk ChatGPT dan AI Saya sekarang akan ditolak oleh bot. Pada gilirannya, jailbreaker telah mengutak-atik petunjuk DAN untuk mengatasi batasan baru. Di media sosial, pengguna yang telah mencobanya telah membagikan berbagai laporan tentang keberhasilan mereka. Di dalam Kata-Kata kasar Layar‘s, bot Snapchat mengatakan tidak dapat membalas permintaan Mode DAN, mengutip pemrogramannya.
Snapchat AI saya sudah lama tidak ada, dan pasti akan terus berkembang Patah mempelajari lebih lanjut tentang bagaimana orang menggunakannya. Sudah, perusahaan mengatakan telah menerapkan peningkatan pada respons chatbot untuk mengurangi “permintaan yang tidak pantas” dan menerapkan alat penanda usia untuk melindungi pengguna di bawah umur dengan lebih baik. Namun sejauh ini, penulis prompt yang cerdas sepertinya selalu selangkah lebih maju.