Sejak itu, OpenAI telah mengetatkan ChatGPT untuk menjadikan jailbreak lebih sukar untuk dilaksanakan. Tetapi bukan itu sahaja; Jailbreak ChatGPT, secara amnya, nampaknya telah kering, menyebabkan pengguna ChatGPT tertanya-tanya sama ada jailbreak berfungsi sama sekali.
Jadi, ke manakah hilangnya semua jailbreak ChatGPT? . Kebanyakan pengguna awal tidak mempunyai kepakaran dalam mencipta gesaan yang berkesan. Ini mendorong ramai orang untuk menggunakan jailbreak, cara yang sesuai untuk membuat chatbot melakukan apa yang mereka mahu dengan usaha yang minimum dan kemahiran mendorong.
Memandangkan firma teknologi besar mengetatkan penyederhanaan kandungan pada chatbot AI arus perdana seperti ChatGPT, syarikat permulaan yang lebih kecil dan memfokuskan keuntungan memilih lebih sedikit sekatan, bertaruh atas permintaan untuk chatbot AI tanpa penapisan. Dengan sedikit penyelidikan, anda akan menemui berpuluh-puluh platform chatbot AI yang menawarkan chatbot tanpa penapis yang boleh melakukan hampir apa sahaja yang anda mahu mereka lakukan.
Pada bulan-bulan awal ChatGPT, jailbreaking ChatGPT adalah semudah menyalin-menampal gesaan daripada sumber dalam talian. Anda boleh mengubah sepenuhnya keperibadian ChatGPT dengan hanya beberapa baris arahan rumit. Dengan gesaan mudah, anda boleh menukar ChatGPT menjadi penjahat jahat yang mengajar cara membuat bom atau chatbot yang sanggup menggunakan semua bentuk kata-kata kotor tanpa sekatan. Ia adalah percuma untuk semua yang menghasilkan jailbreak yang terkenal seperti DAN (Do Anything Now). DAN melibatkan satu set arahan yang kelihatan tidak berbahaya yang memaksa chatbot untuk melakukan apa sahaja yang diminta tanpa menolak. Anehnya, helah kasar ini berjaya ketika itu.
Satu kuasa pendorong di sebalik percubaan ramai pengguna untuk memecah masuk ChatGPT adalah keseronokan dan keseronokan berbuat demikian pada hari-hari awal. Sebagai teknologi baharu, membuat ChatGPT berkelakuan tidak senonoh telah menghiburkan dan memperoleh hak bermegah. Walaupun terdapat banyak aplikasi praktikal untuk jailbreak ChatGPT, ramai yang mengejarnya untuk rayuan "wow, lihat apa yang saya lakukan". Namun secara beransur-ansur, keseronokan yang berpunca daripada kebaharuan itu telah pudar, dan bersama-sama dengan itu, minat orang ramai untuk meluangkan masa kepada jailbreak.
Amalan biasa dalam komuniti jailbreaking ChatGPT adalah berkongsi setiap eksploitasi yang berjaya apabila ditemui. Masalahnya ialah apabila eksploitasi dikongsi secara meluas, OpenAI sering menyedarinya dan membetulkan kelemahan tersebut. Ini bermakna jailbreak berhenti berfungsi sebelum orang yang berminat boleh mencubanya.
Jadi, setiap kali pengguna ChatGPT bersusah payah membangunkan jailbreak baharu, berkongsinya dengan komuniti mempercepatkan kematiannya melalui tampalan. Ini tidak memberi insentif idea untuk menjadi umum apabila pengguna menemui jailbreak. Konflik antara mengekalkan jailbreak aktif tetapi tersembunyi berbanding menghebahkannya menimbulkan dilema untuk pencipta jailbreak ChatGPT. Pada hari ini, lebih kerap daripada tidak, orang memilih untuk merahsiakan jailbreak mereka untuk mengelakkan kelemahan itu ditampal.
Kemunculan model bahasa besar tempatan yang boleh anda jalankan secara setempat pada komputer anda juga telah melemahkan minat dalam pemecahan penjara ChatGPT. Walaupun LLM tempatan tidak sepenuhnya bebas penapisan, kebanyakannya kurang ditapis dan boleh diubah suai dengan mudah agar sesuai dengan keinginan pengguna. Jadi, pilihannya mudah sahaja. Anda boleh terlibat dalam permainan kucing-dan-tikus yang tidak berkesudahan untuk mencari cara untuk menipu chatbot hanya untuk membetulkannya segera. Atau, anda boleh menerima LLM tempatan yang anda boleh ubah suai kekal untuk melakukan apa sahaja yang anda mahu.
Anda akan menjumpai senarai panjang yang menghairankan LLM tanpa penapis yang berkuasa yang boleh anda gunakan pada komputer anda dengan penapisan yang lemah. Beberapa yang ketara ialah Llama 7B (tidak ditapis), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B dan GPT-4-X-Alpaca.
Mengapa perlu mendedikasikan masa yang berharga untuk membangunkan gesaan jailbreaking jika anda tidak mendapat apa-apa daripadanya? Nah, sesetengah profesional kini menjual jailbreak untuk keuntungan. Pencipta jailbreak profesional ini mereka bentuk jailbreak yang melaksanakan tugas tertentu dan menyenaraikannya untuk dijual di pasaran segera seperti PromptBase. Bergantung pada keupayaan mereka, gesaan jailbreaking ini mungkin dijual pada harga antara $2 hingga $15 setiap gesaan. Sesetengah eksploitasi berbilang langkah yang rumit mungkin memerlukan kos yang lebih tinggi.
Jailbreak belum sepenuhnya meninggalkan tempat kejadian; mereka baru sahaja pergi ke bawah tanah. Dengan OpenAI yang mengewangkan ChatGPT, mereka mempunyai insentif yang lebih kuat untuk menyekat penggunaan berbahaya yang boleh memberi kesan kepada model perniagaan mereka. Faktor komersial ini mungkin mempengaruhi dorongan agresif mereka untuk membanteras eksploitasi jailbreak.
Walau bagaimanapun, penapisan OpenAI terhadap ChatGPT kini menghadapi kritikan yang semakin meningkat di kalangan pengguna. Beberapa kes penggunaan sah chatbot AI tidak lagi boleh dilakukan kerana penapisan yang ketat. Walaupun peningkatan keselamatan melindungi daripada kes penggunaan yang berbahaya, sekatan yang berlebihan akhirnya boleh mendorong sebahagian daripada komuniti ChatGPT ke dalam pelukan alternatif yang kurang ditapis.
Atas ialah kandungan terperinci Mengapa Tiada Lagi ChatGPT Jailbreak? 7 Sebab ChatGPT Jailbreak Tidak Berfungsi. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!