ChatGPT telah digunakan oleh lebih dari 100 juta pengguna. Namun, konsultan McKinsey & Company Robert Zafft menilai manusia perlu berhati-hati dengan jawaban dari chatbot berbasis kecerdasan buatan alias artificial intelligence (AI).
Dia mengatakan Efek Cliff Clavin memberi manusia pilihan. “Bangun kebijaksanaan dalam mencari AI generatif, atau disiplinkan diri Anda untuk mengantisipasi keterbatasan teknologi,” ujarnya seperti dikutip Forbes, Senin (13/2).
Kini, raksasa teknologi seperti Microsoft, Google, Baidu hingga JD.Com berlomba-lomba membangun chatbot berbasis AI 2.0 generatif. Dua di antaranya adalah ChatGPT dan Bard.
Namun, Bard menjawab pertanyaan yang salah saat diperkenalkan oleh Google di sebuah acara Rabu (8/2) lalu.
“Model AI generatif saat ini berfokus pada pernyataan yang masuk akal secara statistik. Mereka tidak memeriksa fakta seperti yang mungkin dilakukan oleh pemeriksa fakta, atau mencoba memisahkan pernyataan dan pendapat faktual seperti yang terjadi dalam proses pengadilan,” kata Zafft.
Ia mencontohkan hasil riset McKinsey & Company Senior Partner Kevin Buehler dan timnya tentang keterbatasan jawaban chatbot AI seperti Bard dan ChatGPT. Kevin juga membangun departemen praktik Risiko di McKinsey & Company dan merupakan ketua firma konsultan Risk Dynamics.
Hasilnya, mereka mengidentifikasi enam area baru yang perlu dikelola dengan hati-hati untuk mengembangkan pembelajaran mesin dan model AI yang lebih sesuai:
Interpretabilitas: Mampu mendeskripsikan model dan output Bias: Memastikan bahwa model secara akurat merepresentasikan data tanpa pola pembelajaran yang dapat mempengaruhi kelompok yang berbeda Rekayasa Fitur: Menyesuaikan elemen data individu ke dalam fitur yang mendorong model (misalnya menggunakan rasio utang terhadap pendapatan sebagai fitur dalam model kredit) Hyperparameter: Membuat pilihan tentang desain model (misalnya, jumlah lapisan tersembunyi dalam jaringan saraf) Kesiapan Produksi: Mengantisipasi bagaimana algoritma AI generatif harus beroperasi dalam sistem yang lebih besar. Misalnya, dapatkah setiap bagian dari sistem menangani laju aliran data yang berbeda? Apakah pemrosesan tambahan yang diperlukan untuk penguatan mendorong harga atau merugikan margin? Kalibrasi Model Dinamis: Sesuaikan pemrosesan dengan cepat untuk mencerminkan informasi baru — kapan ini harus terjadi, dan siapa yang harus menentukannya?
Model bahasa dan dialog bisa sangat besar (LaMDA) di belakang Bard Google, dilatih dengan 1,56 triliun kata, adalah model bahasa dan dialog untuk aplikasi dialog. Satu versi terdiri dari 137 miliar parameter model.
Akibatnya, bias dan interpretabilitas mewakili perhatian yang sangat menonjol. Tidak ada manusia yang dapat memeriksa lebih dari satu triliun kata untuk memastikan tidak ada ‘bias halus’.
“Paling-paling seseorang harus bergantung pada model lain untuk melakukan itu,” kata Zafft.
Demikian pula, ketika model yang kompleks memiliki miliaran parameter, sangat sulit untuk menginterpretasikan dengan tepat mengapa model tersebut menghasilkan keluaran tertentu.
“Jadi, misalnya, apa arti ‘kebijaksanaan’ dalam konteks ini? Apakah ini pencarian ‘kebenaran’? Untuk verifikasi’? Jika kita mengandalkan pekerjaan ‘otoritas’ untuk memvalidasi pernyataan atau opini, bagaimana seharusnya algoritme mengevaluasi dan menimbang ‘otoritas’?” kata Zafft.
“Perlu dicatat bahwa survei tahun 1905 terhadap semua fisikawan tentang relativitas waktu akan menghasilkan satu ‘Ya’ dari seorang pegawai paten Swiss bernama Einstein,” tambahnya.
Karena itu, menurutnya, manusia harus lebih berhati-hati terhadap potensi penyalahgunaan AI generatif.
“Daripada memutuskan pada titik mana suatu algoritme dapat memanggil sesuatu yang hitam atau putih, lebih aman dan lebih baik untuk memastikan pemahaman manusia tentang nuansa abu-abu yang sedang kita hadapi,” katanya.