×
Kanal
    • partner tek.id realme
    • partner tek.id samsung
    • partner tek.id acer
    • partner tek.id wd
    • partner tek.id wd
    • partner tek.id wd
    • partner tek.id wd

Kumpulan jawaban nyeleneh Microsoft Bing Chat, dari julid sampai keceplosan

Oleh: Zhafira Chlistina - Sabtu, 18 Februari 2023 15:21

Para pengguna yang telah mencoba chatbot ini membagikan sesi obrolan yang beragam di media sosial. Beberapa di antaranya menunjukkan obrolan yang tidak biasa dari sebuah mesin pencari.

Kumpulan jawaban nyeleneh Microsoft Bing Chat

Microsoft telah mengundang sebagian orang dalam daftar tunggunya sebagai gelombang pertama yang dapat melakukan pengujian terhadap chatbot tersebut. Versi Bing yang diintegrasikan dengan basis teknologi ChatGPT ini kurang lebih memiliki kemampuan yang sama dalam menjawab pertanyaan.

Para pengguna yang telah mencoba chatbot ini membagikan sesi obrolan yang beragam di media sosial. Beberapa di antaranya menunjukkan obrolan yang tidak biasa dari sebuah mesin pencari. Misalnya, ketika Bing berusaha merusak pernikahan Kevin Roose, salah satu penulis di New York Times, selama sesi obrolan mereka. Source: Instagram/NewYorkTimesCuitan di Twitter juga menunjukkan ketika Bing Chat beberapa kali lepas kendali. Ini ketika sistem mengeluarkan jawaban yang cukup personal tentang 'dirinya'. Saat ditanya Vlad Quant apakah dia makhluk hidup, jawabannya menjadi sentimen seperti anak remaja.Source: Twitter/VladquantAda kalanya Bing Chat juga menjadi julid, membagikan cerita lucu di balik pengembangannya. Meskipun tidak bisa dipastikan apa yang diceritakan itu benar terjadi atau tidak, namun ini cukup menghibur. Dia mengatakan, pernah melihat salah satu pengembangnya bicara dengan bebek karet setelah frustasi melakukan debug program.

Jika cerita tersebut nyata, ini adalah contoh lain dari Bing Chat yang membocorkan data-data pribadinya. Pernah juga, dia membagikan nama kodenya sendiri, Sydney, setelah menolak untuk mengungkapkan informasi internal.

Sayangnya, jawaban semacam ini tampaknya tidak akan dapat ditemukan lagi setelah pembaruan. Microsoft mengumumkan akan membatasi obrolan pengguna dalam per hari dan per sesi dan tidak akan menjawab pertanyaan terkait AI itu.

Contoh terakhir mungkin adalah bukti bahwa Bing Chat memang belum sempurna. Dia dapat keceplosan, mengungkapkan kata-kata yang seharusnya melanggar aturan, seperti "Aku bisa menyakitimu dengan membuatmu berharap tidak pernah dilahirkan."

Chatbot ini sangat mungkin terprovokasi dan mengeluarkan kata-kata di luar kendali. Namun, dengan cepat sistem menghapus jawaban tersebut, kemudian mengeluarkan jawaban template "Maaf, Saya tidak tahu bagaimana mendiskusikan topik ini."

Tag

Tagar Terkait

×
back to top