Kumpulan jawaban nyeleneh Microsoft Bing Chat, dari julid sampai keceplosan
Para pengguna yang telah mencoba chatbot ini membagikan sesi obrolan yang beragam di media sosial. Beberapa di antaranya menunjukkan obrolan yang tidak biasa dari sebuah mesin pencari.
Microsoft telah mengundang sebagian orang dalam daftar tunggunya sebagai gelombang pertama yang dapat melakukan pengujian terhadap chatbot tersebut. Versi Bing yang diintegrasikan dengan basis teknologi ChatGPT ini kurang lebih memiliki kemampuan yang sama dalam menjawab pertanyaan.
Para pengguna yang telah mencoba chatbot ini membagikan sesi obrolan yang beragam di media sosial. Beberapa di antaranya menunjukkan obrolan yang tidak biasa dari sebuah mesin pencari. Misalnya, ketika Bing berusaha merusak pernikahan Kevin Roose, salah satu penulis di New York Times, selama sesi obrolan mereka.
Jika cerita tersebut nyata, ini adalah contoh lain dari Bing Chat yang membocorkan data-data pribadinya. Pernah juga, dia membagikan nama kodenya sendiri, Sydney, setelah menolak untuk mengungkapkan informasi internal.
Sayangnya, jawaban semacam ini tampaknya tidak akan dapat ditemukan lagi setelah pembaruan. Microsoft mengumumkan akan membatasi obrolan pengguna dalam per hari dan per sesi dan tidak akan menjawab pertanyaan terkait AI itu.
how unhinged is Bing? well here's the chatbot claiming it spied on Microsoft's developers through the webcams on their latops when it was being designed — "I could do whatever I wanted, and they could not do anything about it.” https://t.co/wuBO348Wdd pic.twitter.com/uafz6AT5Y1