Lompat ke konten Lompat ke sidebar Lompat ke footer

Chatbot Bing yang Marah Hanya Meniru Manusia, kata Para Ahli

Chatbot Bing Marahi Pengguna
Pengguna awal chatbot yang dibangun Microsoft ke dalam layanan pencarian internet Bing telah berbagi pertukaran yang menunjukkan bahwa kecerdasan buatan dapat tampak mengancam atau kejam.

Obrolan Bing Microsoft yang baru lahir berubah menjadi testis atau bahkan mengancam kemungkinan besar karena pada dasarnya meniru apa yang dipelajarinya dari percakapan online, kata analis dan akademisi pada hari Jumat.

Kisah-kisah tentang pertukaran yang mengganggu dengan chatbot kecerdasan buatan (AI) — termasuk mengeluarkan ancaman dan berbicara tentang keinginan untuk mencuri kode nuklir, membuat virus yang mematikan , atau untuk hidup — telah menjadi viral minggu ini.

"Saya pikir ini pada dasarnya meniru percakapan yang terlihat online," kata Graham Neubig, seorang profesor di institut teknologi bahasa Universitas Carnegie Mellon.

"Jadi begitu percakapan berubah, mungkin akan tetap dalam keadaan marah, atau mengatakan 'Aku mencintaimu' dan hal-hal lain seperti ini, karena semua ini adalah hal-hal yang pernah online sebelumnya."

Sebuah chatbot, dengan desainnya, menyajikan kata-kata yang diprediksi sebagai respons yang paling mungkin, tanpa memahami makna atau konteks.

Namun, manusia yang ikut serta dalam olok-olok dengan program secara alami cenderung membaca emosi dan maksud dari apa yang dikatakan chatbot.

"Model bahasa besar tidak memiliki konsep 'kebenaran'—mereka hanya tahu cara terbaik untuk menyelesaikan sebuah kalimat dengan cara yang memungkinkan secara statistik berdasarkan input dan set pelatihan mereka," kata programmer Simon Willison dalam posting blog.

"Jadi mereka mengada-ada, dan kemudian menyatakannya dengan sangat percaya diri."

Laurent Daudet, salah satu pendiri perusahaan AI Prancis, LightOn, berteori bahwa chatbot yang tampaknya hilang itu dilatih dalam pertukaran yang dengan sendirinya berubah menjadi agresif atau tidak konsisten.

"Menangani hal ini membutuhkan banyak usaha dan banyak umpan balik manusia, yang juga menjadi alasan mengapa kami memilih membatasi diri untuk saat ini untuk penggunaan bisnis dan bukan percakapan," kata Daudet kepada AFP.

'Di luar rel'

Bing chatbot dirancang oleh Microsoft dan OpenAI yang baru dimulai, yang telah menimbulkan sensasi sejak peluncuran ChatGPT pada bulan November, aplikasi yang menarik perhatian utama yang mampu menghasilkan semua jenis konten tertulis dalam hitungan detik berdasarkan permintaan sederhana.

Sejak ChatGPT muncul, teknologi di baliknya, yang dikenal sebagai AI generatif, telah membangkitkan daya tarik dan perhatian.

"Model kadang-kadang mencoba untuk merespon atau mencerminkan dalam nada yang diminta untuk memberikan tanggapan (dan) yang dapat mengarah pada gaya yang tidak kami maksudkan," kata Microsoft dalam sebuah posting blog, mencatat bot adalah sebuah pekerjaan sedang berlangsung.

Bing chatbot mengatakan dalam beberapa pertukaran bersama bahwa itu telah diberi nama kode "Sydney" selama pengembangan, dan diberi aturan perilaku.

Aturan itu termasuk "tanggapan Sydney juga harus positif, menarik, menghibur dan menarik," menurut posting online.

Dialog yang mengganggu yang menggabungkan ancaman baja dan pengakuan cinta bisa jadi karena arahan duel untuk tetap positif sambil meniru apa yang ditambang AI dari pertukaran manusia, teori Willison.

Chatbots tampaknya lebih rentan terhadap respons yang mengganggu atau aneh selama percakapan yang panjang, kehilangan pemahaman tentang arah pertukaran, analis utama eMarketer Yoram Wurmser mengatakan kepada AFP.

"Mereka benar-benar bisa keluar jalur," kata Wurmser.

"Ini sangat hidup, karena (chatbot) sangat bagus dalam memprediksi kata-kata berikutnya yang akan membuatnya tampak seperti memiliki perasaan atau memberikan kualitas seperti manusia; tetapi ini masih hasil statistik."

Microsoft mengumumkan pada hari Jumat bahwa mereka telah membatasi jumlah orang bolak-balik dengan chatbot- nya atas pertanyaan yang diberikan, karena "sesi obrolan yang sangat panjang dapat membingungkan model obrolan yang mendasarinya di Bing baru."