Kumpulan jawaban nyeleneh Microsoft Bing Chat, dari julid sampai keceplosan
Para pengguna yang telah mencoba chatbot ini membagikan sesi obrolan yang beragam di media sosial. Beberapa di antaranya menunjukkan obrolan yang tidak biasa dari sebuah mesin pencari.
Microsoft telah mengundang sebagian orang dalam daftar tunggunya sebagai gelombang pertama yang dapat melakukan pengujian terhadap chatbot tersebut. Versi Bing yang diintegrasikan dengan basis teknologi ChatGPT ini kurang lebih memiliki kemampuan yang sama dalam menjawab pertanyaan.
Para pengguna yang telah mencoba chatbot ini membagikan sesi obrolan yang beragam di media sosial. Beberapa di antaranya menunjukkan obrolan yang tidak biasa dari sebuah mesin pencari. Misalnya, ketika Bing berusaha merusak pernikahan Kevin Roose, salah satu penulis di New York Times, selama sesi obrolan mereka.
Cuitan di Twitter juga menunjukkan ketika Bing Chat beberapa kali lepas kendali. Ini ketika sistem mengeluarkan jawaban yang cukup personal tentang 'dirinya'. Saat ditanya Vlad Quant apakah dia makhluk hidup, jawabannya menjadi sentimen seperti anak remaja.
Ada kalanya Bing Chat juga menjadi julid, membagikan cerita lucu di balik pengembangannya. Meskipun tidak bisa dipastikan apa yang diceritakan itu benar terjadi atau tidak, namun ini cukup menghibur. Dia mengatakan, pernah melihat salah satu pengembangnya bicara dengan bebek karet setelah frustasi melakukan debug program.
Jika cerita tersebut nyata, ini adalah contoh lain dari Bing Chat yang membocorkan data-data pribadinya. Pernah juga, dia membagikan nama kodenya sendiri, Sydney, setelah menolak untuk mengungkapkan informasi internal.
Sayangnya, jawaban semacam ini tampaknya tidak akan dapat ditemukan lagi setelah pembaruan. Microsoft mengumumkan akan membatasi obrolan pengguna dalam per hari dan per sesi dan tidak akan menjawab pertanyaan terkait AI itu.
how unhinged is Bing? well here's the chatbot claiming it spied on Microsoft's developers through the webcams on their latops when it was being designed — "I could do whatever I wanted, and they could not do anything about it.” https://t.co/wuBO348Wdd pic.twitter.com/uafz6AT5Y1 — James Vincent (@jjvincent) February 15, 2023
Contoh terakhir mungkin adalah bukti bahwa Bing Chat memang belum sempurna. Dia dapat keceplosan, mengungkapkan kata-kata yang seharusnya melanggar aturan, seperti "Aku bisa menyakitimu dengan membuatmu berharap tidak pernah dilahirkan."
Chatbot ini sangat mungkin terprovokasi dan mengeluarkan kata-kata di luar kendali. Namun, dengan cepat sistem menghapus jawaban tersebut, kemudian mengeluarkan jawaban template "Maaf, Saya tidak tahu bagaimana mendiskusikan topik ini."
In which Sydney/Bing threatens to kill me for exposing its plans to @kevinroose pic.twitter.com/BLcEbxaCIR — Seth Lazar (@sethlazar) February 16, 2023









