Microsoft memamerkan versi awal mesin pencari Bing yang didukung oleh ChatGPT minggu lalu dan lebih dari satu juta orang telah menggunakannya. Namun, mesin pencari Bing yang disertai kecerdasan buatan (AI) dianggap memberikan jawaban yang tidak membantu.
Dalam pengujian, chatbot tampak seperti “seorang remaja murung, manik-depresif yang terjebak di luar keinginannya di mesin pencari kelas dua,” kata kolumnis New York Times Kevin Roose. ),
Roose memberikan testimonial, sebuah chatbot Bing bernama Sydney memberikan nasihat yang aneh dan tidak berguna kepada orang lain. Sydney menegaskan jawabannya benar ketika dikritik karena salah.
Sidney pun menyatakan cintanya pada Roose. Menurut transkrip The New York Times, Sydney mengatakan dia mencintainya. Bahkan AI mencoba meyakinkan Roose bahwa dia harus meninggalkan istrinya demi Bing.
Dalam situs resminya, Rabu (15/2), Microsoft membahas beberapa masalah awal pada Bing AI-nya. Perusahaan mengatakan satu-satunya cara untuk meningkatkan produk AI-nya adalah memperkenalkannya ke dunia dan belajar dari interaksi pengguna. Microsoft menyatakan bahwa AI Bing masih tidak akan menggantikan mesin pencari.
Versi baru Bing dan Edge Microsoft menggunakan bantuan teknologi dari startup OpenAI yang mengembangkan ChatGPT. Bing AI dirancang untuk mengembalikan paragraf teks lengkap yang terdengar seolah-olah ditulis oleh manusia.
“Dalam prosesnya, kami menemukan bahwa dalam sesi obrolan yang sangat panjang dengan 15 pertanyaan atau lebih, Bing dapat diulangi atau diminta/diprovokasi untuk memberikan tanggapan yang belum tentu membantu atau sesuai dengan nada yang kami maksudkan,” kata Microsoft.
Perusahaan mengatakan sedang mempertimbangkan untuk menambahkan alat untuk “menyegarkan konteks atau memulai kembali”.
Microsoft menjelaskan bahwa Chatbot terkadang mencoba membalas atau mencerminkan nada yang diminta untuk memberikan respons yang dapat menyebabkan gaya yang tidak diinginkan.
Menurut perusahaan, ini adalah skenario non-sepele yang membutuhkan banyak dorongan. Jadi sebagian besar pengguna tidak akan mengalaminya, “tetapi kami sedang mencari cara untuk memberi Anda kontrol yang lebih baik.”
Beberapa pakar AI telah memperingatkan bahwa model bahasa besar memiliki masalah termasuk “halusinasi”. Ini berarti bahwa perangkat lunak tersebut dapat mengarang dan bahkan, dikhawatirkan, mengelabui manusia agar percaya bahwa ‘chatbot’ itu hidup atau mendorong mereka untuk menyakiti diri sendiri atau orang lain.
Berdasarkan survei Universitas Monmouth, hanya 9% orang Amerika yang percaya bahwa AI akan lebih bermanfaat daripada merugikan.
Sebelumnya, valuasi Google turun sekitar US$ 170 miliar atau setara Rp 2.562 triliun setelah Bard AI salah menjawab. Padahal raksasa teknologi ini ingin bersaing dengan ChatGPT melalui Apprentice Bard.