Layanan custom GPT dari OpenAI rawan kebocoran data sensitif

Oleh: Bennartho Denys Rapoho - Senin, 15 Januari 2024 22:07

Layanan custom GPT dari OpenAI ternyata cukup rawan mengalami kebocoran data sensitif, itu setelah ada pengguna yang melaporkannya.

Layanan custom chatbot GPT dari OpenAI punya potensi kebocoran data sensitif yang cukup besar dan hal ini dibuktikan sendiri oleh salah satu pengguna platform GPT Store. Tim peneliti dari Northwestern University menyebut telah melakukan pengujian terhadap 200 akun pengguna yang menggunakan model custom GPT.

Dilansir dari infoq (15/1), hasilnya cukup mengejutkan sebab ternyata ada beberapa kebocoran data seperti prompt leaking hingga jailbreaking. Custom GPT juga dinilai datanya mudah dimanipulasi dengan menggunakan prompt injection.

Prompt injection merupakan suatu teknik yang mana peretas memasukkan sejumlah input atau prompt secara spesifik guna mengacaukan algoritma Large Language Model (LLM) seperti GPT. Dalam sebuah penelitian, prompt injection diduga tidak hanya mampu mengekstrak data namun juga bisa mengakses seluruh dokumen yang telah diunggah.

“Kemarin saya membuat sebuah custom GPT untuk Levels.fyi dengan data yang terbatas sebagai knowledge source. Umpan balik sangat luar biasa dan mengagumkan sebab begitu kreatif dengan sejumlah prompt yang mereka miliki. Namun, saya menemukan secara sekilas bahwa sumber data ada yang bocor,” ungkap Zuhayeer Musa, founder Levels.fyi.

Prinsip custom GPT yang memungkinkan pengguna dengan sedikit pengalaman coding sudah bisa membuat model AI versinya sendiri, justru dinilai bahaya karena sangat berpotensi dibobol keamanannya. Alih-alih ingin mengembangkan kreativitas, pengguna custom GPT kini malah harus khawatir bila data sensitifnya dibocorkan ke publik.