liveslot168
liveslot168
liveslot168
liveslot168
liveslot168
liveslot168
liveslot168
Cocol88
Cocol88
Cocol88
Cocol88
Cocol88
Cocol88
Cocol88
bosswin168
bosswin168 login
bosswin168 login
bosswin168 rtp
bosswin168 login
bosswin168 link alternatif
boswin168
bocoran rtp bosswin168
bocoran rtp bosswin168
slot online bosswin168
slot bosswin168
bosswin168 slot online
bosswin168
bosswin168 slot viral online
cocol88
cocol88
cocol88
cocol88
cocol88
cocol88
cocol88
cocol88
lotus138
bosswin168
bosswin168
maxwin138
master38
master38
master38
mabar69
mabar69
mabar69
mabar69
master38
ronin86
ronin86
ronin86
cocol77
cocol77
ronin86
ronin86
ronin86
ronin86
ronin86
ronin86
ronin86
cocol77
ronin86
cocol77
cocol77
cocol77
maxwin138
MASTER38 MASTER38 MASTER38 MASTER38 BOSSWIN168 BOSSWIN168 BOSSWIN168 BOSSWIN168 BOSSWIN168 COCOL88 COCOL88 COCOL88 COCOL88 MABAR69 MABAR69 MABAR69 MABAR69 MABAR69 MABAR69 MABAR69 MAHJONG69 MAHJONG69 MAHJONG69 MAHJONG69 RONIN86 RONIN86 RONIN86 RONIN86 RONIN86 RONIN86 RONIN86 RONIN86 ZONA69 ZONA69 ZONA69 NOBAR69 ROYAL38 ROYAL38 ROYAL38 ROYAL38 ROYAL38 ROYAL38 ROYAL38 ROYAL38
SLOT GACOR HARI INI SLOT GACOR HARI INI
BOSSWIN168 BOSSWIN168
BARON69
COCOL88
MAX69 MAX69 MAX69
COCOL88 COCOL88 BARON69 RONIN86 DINASTI168
Bakal Berbayar, Ini Cara Pakai ChatGPT Gratis dan Ciri Aplikasi Palsu

ChatGPT telah digunakan oleh lebih dari 100 juta pengguna. Namun, konsultan McKinsey & Company Robert Zafft menilai manusia perlu berhati-hati dengan jawaban dari chatbot berbasis kecerdasan buatan alias artificial intelligence (AI).

Dia mengatakan Efek Cliff Clavin memberi manusia pilihan. “Bangun kebijaksanaan dalam mencari AI generatif, atau disiplinkan diri Anda untuk mengantisipasi keterbatasan teknologi,” ujarnya seperti dikutip Forbes, Senin (13/2).

Kini, raksasa teknologi seperti Microsoft, Google, Baidu hingga JD.Com berlomba-lomba membangun chatbot berbasis AI 2.0 generatif. Dua di antaranya adalah ChatGPT dan Bard.

Namun, Bard menjawab pertanyaan yang salah saat diperkenalkan oleh Google di sebuah acara Rabu (8/2) lalu.

“Model AI generatif saat ini berfokus pada pernyataan yang masuk akal secara statistik. Mereka tidak memeriksa fakta seperti yang mungkin dilakukan oleh pemeriksa fakta, atau mencoba memisahkan pernyataan dan pendapat faktual seperti yang terjadi dalam proses pengadilan,” kata Zafft.

Ia mencontohkan hasil riset McKinsey & Company Senior Partner Kevin Buehler dan timnya tentang keterbatasan jawaban chatbot AI seperti Bard dan ChatGPT. Kevin juga membangun departemen praktik Risiko di McKinsey & Company dan merupakan ketua firma konsultan Risk Dynamics.

Hasilnya, mereka mengidentifikasi enam area baru yang perlu dikelola dengan hati-hati untuk mengembangkan pembelajaran mesin dan model AI yang lebih sesuai:

Interpretabilitas: Mampu mendeskripsikan model dan output Bias: Memastikan bahwa model secara akurat merepresentasikan data tanpa pola pembelajaran yang dapat mempengaruhi kelompok yang berbeda Rekayasa Fitur: Menyesuaikan elemen data individu ke dalam fitur yang mendorong model (misalnya menggunakan rasio utang terhadap pendapatan sebagai fitur dalam model kredit) Hyperparameter: Membuat pilihan tentang desain model (misalnya, jumlah lapisan tersembunyi dalam jaringan saraf) Kesiapan Produksi: Mengantisipasi bagaimana algoritma AI generatif harus beroperasi dalam sistem yang lebih besar. Misalnya, dapatkah setiap bagian dari sistem menangani laju aliran data yang berbeda? Apakah pemrosesan tambahan yang diperlukan untuk penguatan mendorong harga atau merugikan margin? Kalibrasi Model Dinamis: Sesuaikan pemrosesan dengan cepat untuk mencerminkan informasi baru — kapan ini harus terjadi, dan siapa yang harus menentukannya?

Model bahasa dan dialog bisa sangat besar (LaMDA) di belakang Bard Google, dilatih dengan 1,56 triliun kata, adalah model bahasa dan dialog untuk aplikasi dialog. Satu versi terdiri dari 137 miliar parameter model.

Akibatnya, bias dan interpretabilitas mewakili perhatian yang sangat menonjol. Tidak ada manusia yang dapat memeriksa lebih dari satu triliun kata untuk memastikan tidak ada ‘bias halus’.

“Paling-paling seseorang harus bergantung pada model lain untuk melakukan itu,” kata Zafft.

Demikian pula, ketika model yang kompleks memiliki miliaran parameter, sangat sulit untuk menginterpretasikan dengan tepat mengapa model tersebut menghasilkan keluaran tertentu.

“Jadi, misalnya, apa arti ‘kebijaksanaan’ dalam konteks ini? Apakah ini pencarian ‘kebenaran’? Untuk verifikasi’? Jika kita mengandalkan pekerjaan ‘otoritas’ untuk memvalidasi pernyataan atau opini, bagaimana seharusnya algoritme mengevaluasi dan menimbang ‘otoritas’?” kata Zafft.

“Perlu dicatat bahwa survei tahun 1905 terhadap semua fisikawan tentang relativitas waktu akan menghasilkan satu ‘Ya’ dari seorang pegawai paten Swiss bernama Einstein,” tambahnya.

Karena itu, menurutnya, manusia harus lebih berhati-hati terhadap potensi penyalahgunaan AI generatif.

“Daripada memutuskan pada titik mana suatu algoritme dapat memanggil sesuatu yang hitam atau putih, lebih aman dan lebih baik untuk memastikan pemahaman manusia tentang nuansa abu-abu yang sedang kita hadapi,” katanya.