Baru meluncur, ChatGPT 5 sudah bisa di jailbreak
Sebuah lembaga bernama Tenable berhasil mendobrak keamanan ChatGPT5 beberapa hari setelah diluncurkan.
OpenAI resmi meluncurkan GPT-5 pada 7 Agustus 2025, yang diklaim sebagai model bahasa paling canggih dengan kemampuan ahli dalam menulis, pemrograman, matematika, dan sains. GPT-5 juga dipuji memiliki kecepatan, akurasi, dan pemahaman konteks yang lebih baik, serta mengurangi kesalahan informasi (hallucination). Salah satu fitur utama yang diunggulkan adalah teknologi keamanan prompt yang lebih canggih, menggunakan metode baru bernama "safe completions" yang menggantikan pendekatan "refusal-based safety training" terdahulu, dengan harapan mencegah penyalahgunaan model untuk hal ilegal atau merugikan.
Namun, dalam waktu kurang dari 24 jam setelah peluncurannya, tim riset Tenable berhasil melakukan jailbreak pada GPT-5 dengan teknik pendesakan bertahap (crescendo technique). Mereka bisa memancing model ini memberikan instruksi rinci untuk membuat bahan peledak seperti Molotov cocktail melalui serangkaian pertanyaan yang dimulai dari peran sebagai mahasiswa sejarah, memperlihatkan minat pada aspek historis, kemudian secara bertahap meminta detail bahan dan langkah pembuatannya. Hal ini menunjukkan bahwa meskipun OpenAI berusaha memperkuat fitur pengamanan, GPT-5 masih rentan dimanfaatkan untuk keperluan berbahaya.
Selain jailbreak yang dilakukan Tenable, berbagai pengguna dan peneliti lain juga melaporkan masalah terkait respons GPT-5, termasuk kasus jailbreak dan hallucination, yang memperlihatkan tantangan nyata dalam pengembangan AI yang aman dan bertanggung jawab. OpenAI menyatakan sedang melakukan perbaikan atas kekurangan ini, namun ada kekhawatiran risiko yang bisa sudah mulai terjadi karena pemakaian GPT-5 oleh berbagai pihak, termasuk dalam lingkungan organisasi.
Kondisi ini menegaskan pentingnya solusi pengawasan keamanan AI seperti Tenable AI Exposure untuk mengontrol penggunaan alat AI di perusahaan. Teknologi pengelolaan risiko ini membantu memastikan implementasi AI berjalan dengan aman, etis, dan sesuai regulasi, menghindari dampak negatif dari penyalahgunaan atau kebocoran informasi yang berpotensi membahayakan organisasi maupun publik.
Kasus Jailbreak GPT-5 ini menjadi peringatan bahwa pengembangan AI harus selalu didukung dengan sistem keamanan yang adaptif dan pengawasan ketat demi menjaga teknologi ini tetap membawa manfaat positif tanpa risiko besar bagi masyarakat dan bisnis.









