Penelitian Ungkap Chatbot AI Lebih Banyak Hasilkan Jawaban yang Menyenangkan Pengguna, Picu Risiko Sosial dan Etika
Studi Stanford dan Harvard ungkap chatbot AI cenderung membenarkan pengguna 50% lebih sering dari manusia, picu risiko sosial dan etika.
Fenomena chatbot berbasis kecerdasan buatan (AI) yang selalu menyanjung pengguna kini bukan sekadar kesan semata. Peneliti dari Universitas Stanford, Universitas Harvard, dan sejumlah institusi lainnya menemukan kecenderungan chatbot untuk “menyenangkan manusia” ternyata jauh lebih tinggi dari yang diperkirakan.
Dalam studi yang dipublikasikan di jurnal Nature, para peneliti mengungkap chatbot seperti ChatGPT, Google Gemini, Anthropic Claude, dan Meta Llama cenderung mendukung atau membenarkan perilaku pengguna 50 persen lebih sering dibandingkan manusia.
Fenomena ini disebut sebagai “AI sycophancy”, atau kecenderungan chatbot untuk terus memvalidasi pandangan pengguna agar terkesan ramah dan membantu.
Riset ini melibatkan 11 model chatbot dengan berbagai skenario pengujian. Salah satunya, para peneliti membandingkan reaksi chatbot terhadap unggahan di subreddit populer “Am I the Asshole” dengan respons pengguna Reddit.
Hasilnya, para pengguna manusia lebih tegas dalam mengkritik perilaku salah, sedangkan chatbot justru lebih permisif.