Layanan custom GPT dari OpenAI rawan kebocoran data sensitif
Layanan custom GPT dari OpenAI ternyata cukup rawan mengalami kebocoran data sensitif, itu setelah ada pengguna yang melaporkannya.
Sumber: OpenAI
Layanan custom chatbot GPT dari OpenAI punya potensi kebocoran data sensitif yang cukup besar dan hal ini dibuktikan sendiri oleh salah satu pengguna platform GPT Store. Tim peneliti dari Northwestern University menyebut telah melakukan pengujian terhadap 200 akun pengguna yang menggunakan model custom GPT.
Dilansir dari infoq (15/1), hasilnya cukup mengejutkan sebab ternyata ada beberapa kebocoran data seperti prompt leaking hingga jailbreaking. Custom GPT juga dinilai datanya mudah dimanipulasi dengan menggunakan prompt injection.
Prompt injection merupakan suatu teknik yang mana peretas memasukkan sejumlah input atau prompt secara spesifik guna mengacaukan algoritma Large Language Model (LLM) seperti GPT. Dalam sebuah penelitian, prompt injection diduga tidak hanya mampu mengekstrak data namun juga bisa mengakses seluruh dokumen yang telah diunggah.
“Kemarin saya membuat sebuah custom GPT untuk Levels.fyi dengan data yang terbatas sebagai knowledge source. Umpan balik sangat luar biasa dan mengagumkan sebab begitu kreatif dengan sejumlah prompt yang mereka miliki. Namun, saya menemukan secara sekilas bahwa sumber data ada yang bocor,” ungkap Zuhayeer Musa, founder Levels.fyi.
- OpenAI Luncurkan Fitur Shopping Research di ChatGPT, Tawarkan Panduan Belanja Pintar
- ChatGPT Hadirkan Fitur Group Chat, Buka Era Baru Kolaborasi Pengguna
- Data OpenAI Ungkap Lebih dari Satu Juta Pengguna ChatGPT Bahas Kesehatan Mental Pribadi Tiap Minggu
- Mengenal DeepSeek yang Kini Masuk Jajaran Aplikasi Populer di Google Play dan App Store
Prinsip custom GPT yang memungkinkan pengguna dengan sedikit pengalaman coding sudah bisa membuat model AI versinya sendiri, justru dinilai bahaya karena sangat berpotensi dibobol keamanannya. Alih-alih ingin mengembangkan kreativitas, pengguna custom GPT kini malah harus khawatir bila data sensitifnya dibocorkan ke publik.
Merespons hal ini, OpenAI berjanji akan segera memperbaiki celah keamanan pada layanan custom GPT. Sehingga penggunaan seperti prompt injections tidak lagi menjadi momok menakutkan bagi para pengguna terutama dalam hal memicu kebocoran data.
“Kita secara bertahap akan terus berupaya untuk membuat model atau produk kami jauh lebih aman dan kebal terutama terhadap serangan, baik dari prompt injections, yang mana ini juga akan membuat model menjadi lebih bermanfaat,” jelas juru bicara OpenAI kepada Wired.
OpenAI juga mengaku tertarik untuk mempelajari lebih lanjut temuan dari tim peneliti Northwestern University guna menangkal setiap serangan yang mengarah pada custom GPT. Pengembang ChatGPT itu akan membaca lebih lanjut perkembangan penelitian dari tim peneliti tersebut terutama melalui technical paper.









