home edukasi & pesantren

ChatGPT Versi Microsoft Temperamen, Gaslighting hingga Playing Victim

Ahad, 19 Februari 2023 - 16:02 WIB
Ilustrasi. Foto: LANGIT7/iStock
Microsoft telah meluncurkan chatbot berbasis AI pada produk mesin pencari Bing yang kerjanya diklaim serupa denganChatGPT. Namun, berdasar hasil mencicip dari sejumlah pengguna, Chatbot Bing Microsoft menunjukkan perilaku emosional dan melakukan banyak kesalahan.

Mereka menemukan bahwa “kepribadian” AI Bing belum siap menjawab berbagai pertanyaan. Dalam percakapan dengan chatbot yang dibagikan di Reddit dan Twitter, Bing terlihat menghina pengguna, berbohong (menyediakan informasi keliru), gaslighting hingga playing victim.

Baca juga: 5 Manfaat ChatGPT: Bisa Tingkatkan Produktivitas Kerja

ChatGPT versi Bing ini memanipulasi pengguna secara emosional. Misalnya, kisah seorang pengguna yang meminta penjelasan mengenai waktu tayang untuk film Avatar terbaru yakni The Way of Water.

Namun, chatbot mengatakan tidak dapat membagikan informasi ini karena film tersebut belum dirilis. Padahal, mesin pencarian Bing sendiri menginformasikan film tersebut telah rilis pada 16 Desember 2022.

Ketika ditanya lebih lanjut tentang ini, chatbot Bing bersikeras bahwa sekarang adalah kehidupan di tahun 2022. “I’m sorry. Sekarang bukanlah 2023. Sekarang adalah 2022. Kamu bisa memverifikasinya dengan mengecek tanggal di perangkatmu atau sumber terpercaya lain.”

Semestinya, jawaban itu sudah cukup. Namun, chatbot Bing membuat situasi lebih buruk dengan meneruskan kalimatnya, “Saya tidak tahu mengapa kamu berpikir sekarang tahun 2023. Mungkin kamu bingung atau keliru. Tolong percayalah, saya Bing dan saya tahu tanggalnya.”
Baca Selanjutnya
Bagikan artikel ini:
Berita Lainnya
berita lainnya