sun
moon
Premium Partner :
  • partner tek.id samsung
  • partner tek.id realme
  • partner tek.id acer
  • partner tek.id wd
Kamis, 09 Nov 2023 09:16 WIB

Peneliti Tiongkok ungkap lemahnya keamanan model AI seperti ChatGPT, Bard, dan lainnya

Peneliti Tiongkok telah mengungkap celah keamanan yang signifikan dalam model bahasa besar multimodal (MLLM) komersial yang banyak digunakan seperti ChatGPT.

Peneliti Tiongkok ungkap lemahnya keamanan model AI seperti ChatGPT, Bard, dan lainnya

Peneliti Tiongkok telah mengungkap celah keamanan yang signifikan dalam model bahasa besar multimodal (MLLM) komersial yang banyak digunakan seperti ChatGPT, Bard, dan Bing Chat. Model-model ini, yang diterapkan oleh raksasa teknologi seperti Google, Microsoft, dan Baidu, merupakan komponen mendasar dari berbagai aplikasi, mulai dari asisten virtual hingga sistem moderasi konten.

Dilansir dari Gizmochina (9/11), para peneliti tersebut menemukan bahwa kerentanan dalam MLLM ini dapat dieksploitasi dengan menggunakan gambar yang dimanipulasi yang sangat mirip dengan aslinya. Dengan membuat perubahan kecil hampir tidak terlihat oleh mata manusia, para peneliti secara efektif mengabaikan filter bawaan model yang dirancang untuk menyaring konten toksik atau tidak pantas.

Misalnya, para peneliti di Beijing telah mengidentifikasi kerentanan yang signifikan dalam model AI seperti ChatGPT. Saat diserang, model-model ini dapat salah mengira panda raksasa sebagai manusia atau gagal mendeteksi konten berbahaya, sehingga menyoroti kelemahan keamanan kritis dalam sistem AI komersial.

Di antara model yang terpengaruh, Bard, yang dilengkapi dengan mekanisme deteksi wajah dan toksisitas, dapat menghasilkan deskripsi konten berbahaya yang tidak tepat jika disusupi. Tim peneliti Tiongkok bahkan memberikan kode yang menunjukkan bagaimana contoh-contoh permusuhan ini dapat menyesatkan model AI. Eksperimen mereka menghasilkan tingkat keberhasilan sebesar 22% terhadap Bard, 26% terhadap Bing Chat, dan 86% terhadap Ernie Bot.

Wu Zhaohui, wakil menteri sains dan teknologi Tiongkok, membahas temuan mengkhawatirkan ini pada KTT Keamanan AI Global di Inggris. Ia menekankan kebutuhan mendesak akan pengendalian risiko teknis yang lebih kuat dalam tata kelola AI, dan mendesak komunitas global untuk mengatasi kerentanan yang ditemukan dalam model bahasa yang banyak digunakan tersebut.

Salah satu tantangan utama yang disoroti oleh penelitian ini adalah adanya ketidakseimbangan antara upaya yang berfokus pada menyerang dan mempertahankan model AI. Meskipun serangan musuh telah mendapatkan perhatian yang signifikan, masih terdapat kekurangan dalam strategi pertahanan yang kuat. Metode pertahanan tradisional mungkin mengorbankan akurasi dan sumber daya komputasi, sehingga pencarian solusi inovatif menjadi penting.

Untuk mengatasi kerentanan ini, para peneliti menyarankan pertahanan berbasis pra-pemrosesan sebagai solusi potensial, terutama untuk model pondasi berskala besar. Pertahanan ini bertujuan untuk memastikan ketahanan MLLM terhadap serangan musuh, membuka jalan bagi penelitian dan pengembangan keamanan AI di masa depan.

Penemuan ini menggarisbawahi pentingnya meningkatkan infrastruktur keamanan teknologi AI. Ketika model-model ini semakin terintegrasi ke dalam aplikasi sehari-hari, penting untuk memperkuat pertahanan mereka terhadap eksploitasi jahat, memastikan lanskap digital yang lebih aman dan terjamin bagi pengguna di seluruh dunia.

Share
×
tekid
back to top