×
Kanal
    • partner tek.id realme
    • partner tek.id samsung
    • partner tek.id acer
    • partner tek.id wd
    • partner tek.id wd
    • partner tek.id wd
    • partner tek.id wd

Layanan custom GPT dari OpenAI rawan kebocoran data sensitif

Oleh: Bennartho Denys Rapoho - Senin, 15 Januari 2024 22:07

Layanan custom GPT dari OpenAI ternyata cukup rawan mengalami kebocoran data sensitif, itu setelah ada pengguna yang melaporkannya.

Layanan custom GPT dari OpenAI rawan kebocoran data sensitif Sumber: OpenAI

Layanan custom chatbot GPT dari OpenAI punya potensi kebocoran data sensitif yang cukup besar dan hal ini dibuktikan sendiri oleh salah satu pengguna platform GPT Store. Tim peneliti dari Northwestern University menyebut telah melakukan pengujian terhadap 200 akun pengguna yang menggunakan model custom GPT.

Dilansir dari infoq (15/1), hasilnya cukup mengejutkan sebab ternyata ada beberapa kebocoran data seperti prompt leaking hingga jailbreaking. Custom GPT juga dinilai datanya mudah dimanipulasi dengan menggunakan prompt injection.

Prompt injection merupakan suatu teknik yang mana peretas memasukkan sejumlah input atau prompt secara spesifik guna mengacaukan algoritma Large Language Model (LLM) seperti GPT. Dalam sebuah penelitian, prompt injection diduga tidak hanya mampu mengekstrak data namun juga bisa mengakses seluruh dokumen yang telah diunggah.

“Kemarin saya membuat sebuah custom GPT untuk Levels.fyi dengan data yang terbatas sebagai knowledge source. Umpan balik sangat luar biasa dan mengagumkan sebab begitu kreatif dengan sejumlah prompt yang mereka miliki. Namun, saya menemukan secara sekilas bahwa sumber data ada yang bocor,” ungkap Zuhayeer Musa, founder Levels.fyi.

Prinsip custom GPT yang memungkinkan pengguna dengan sedikit pengalaman coding sudah bisa membuat model AI versinya sendiri, justru dinilai bahaya karena sangat berpotensi dibobol keamanannya. Alih-alih ingin mengembangkan kreativitas, pengguna custom GPT kini malah harus khawatir bila data sensitifnya dibocorkan ke publik.

Merespons hal ini, OpenAI berjanji akan segera memperbaiki celah keamanan pada layanan custom GPT. Sehingga penggunaan seperti prompt injections tidak lagi menjadi momok menakutkan bagi para pengguna terutama dalam hal memicu kebocoran data.

“Kita secara bertahap akan terus berupaya untuk membuat model atau produk kami jauh lebih aman dan kebal terutama terhadap serangan, baik dari prompt injections, yang mana ini juga akan membuat model menjadi lebih bermanfaat,” jelas juru bicara OpenAI kepada Wired.

OpenAI juga mengaku tertarik untuk mempelajari lebih lanjut temuan dari tim peneliti Northwestern University guna menangkal setiap serangan yang mengarah pada custom GPT. Pengembang ChatGPT itu akan membaca lebih lanjut perkembangan penelitian dari tim peneliti tersebut terutama melalui technical paper.

×
back to top