liveslot168
liveslot168
liveslot168
liveslot168
liveslot168
liveslot168
liveslot168
Cocol88
Cocol88
Cocol88
Cocol88
Cocol88
Cocol88
Cocol88
bosswin168
bosswin168 login
bosswin168 login
bosswin168 rtp
bosswin168 login
bosswin168 link alternatif
boswin168
bocoran rtp bosswin168
bocoran rtp bosswin168
slot online bosswin168
slot bosswin168
bosswin168 slot online
bosswin168
bosswin168 slot viral online
cocol88
cocol88
cocol88
cocol88
cocol88
cocol88
cocol88
cocol88
lotus138
bosswin168
bosswin168
maxwin138
master38
master38
master38
mabar69
mabar69
mabar69
mabar69
master38
ronin86
ronin86
ronin86
cocol77
cocol77
ronin86
ronin86
ronin86
ronin86
ronin86
ronin86
ronin86
cocol77
ronin86
cocol77
cocol77
cocol77
maxwin138
MASTER38 MASTER38 MASTER38 MASTER38 BOSSWIN168 BOSSWIN168 BOSSWIN168 BOSSWIN168 BOSSWIN168 COCOL88 COCOL88 COCOL88 COCOL88 MABAR69 MABAR69 MABAR69 MABAR69 MABAR69 MABAR69 MABAR69 MAHJONG69 MAHJONG69 MAHJONG69 MAHJONG69 RONIN86 RONIN86 RONIN86 RONIN86 RONIN86 RONIN86 RONIN86 RONIN86 ZONA69 ZONA69 ZONA69 NOBAR69 ROYAL38 ROYAL38 ROYAL38 ROYAL38 ROYAL38 ROYAL38 ROYAL38 ROYAL38
SLOT GACOR HARI INI SLOT GACOR HARI INI
Peneliti Peringatkan Risiko Kepunahan Akibat AI: Seperti Perang Nuklir

Sejumlah pemimpin perusahaan di industri kecerdasan buatan (AI), peneliti, akademisi, dan sejumlah selebriti di Amerika Serikat (AS) menyerukan untuk mengurangi risiko kepunahan global akibat AI pada Selasa (30/5) waktu setempat.

Semua pihak sepakat untuk menandatangani pernyataan singkat bahwa ancaman peristiwa kepunahan AI harus menjadi prioritas global.

“Mengurangi risiko kepunahan AI harus menjadi prioritas global bersama dengan risiko sosial lainnya, seperti pandemi dan perang nuklir,” kata pernyataan yang diterbitkan AI Peace Center, seperti dikutip CNN, Rabu (31/5).

Pernyataan itu ditandatangani oleh perusahaan-perusahaan berperingkat tinggi di industri teknologi, antara lain:

Sam Altman, CEO OpenAI Geoffrey Hinton, Eksekutif dan Peneliti di Google DeepMind dan Anthropic akrab dipanggil ‘Godfather of AI’Kevin Scott, Chief Technology Officer MicrosoftBruce Schneier, Pelopor Keamanan Internet dan KriptografiBill McKibben, Climate AdvocateGrimes, Musisi

Pernyataan tersebut menyoroti kekhawatiran luas tentang bahaya utama kecerdasan buatan yang tidak terkendali. Pakar AI mengatakan masyarakat masih jauh dari mengembangkan jenis kecerdasan buatan umum yang merupakan fiksi ilmiah.

Chatbot canggih saat ini sebagian besar mereproduksi pola berdasarkan data pelatihan yang mereka berikan dan tidak memikirkannya sendiri.

Namun, membanjirnya arus dan investasi ke dalam industri AI telah menyebabkan seruan untuk regulasi awal era AI, sebelum kehancuran besar.

Pernyataan tersebut mengikuti kesuksesan viral ChatGPT OpenAI, yang telah membantu memicu perlombaan senjata industri teknologi atas kecerdasan buatan.

Sebagai tanggapan, semakin banyak anggota parlemen, kelompok advokasi, dan orang dalam teknologi telah memperingatkan tentang potensi tanaman baru chatbot bertenaga AI untuk menyebarkan informasi yang salah dan menggusur manusia dari pekerjaan.

Geoffrey Hinton, yang karya perintisnya membantu membentuk sistem AI hari ini, sebelumnya mengatakan kepada CNN bahwa dia memutuskan untuk meninggalkan perannya di Google dan menyebutkan risiko teknologi AI setelah menyadari bahwa teknologi itu semakin pintar daripada manusia.

Dalam sebuah tweet di Twitter, Direktur Keamanan Pusat AI Dan Hendrycks mengatakan pernyataan tersebut, yang pertama kali dibuat oleh David Krueger, seorang profesor AI di Universitas Cambridge, tidak menghentikan orang untuk menangani jenis risiko AI lainnya, seperti bias algoritmik. . atau informasi yang salah.

Hendrycks membandingkan pernyataan tersebut dengan peringatan yang dikeluarkan ilmuwan atom tentang teknologi yang mereka ciptakan.

“Masyarakat dapat mengelola berbagai risiko sekaligus. Dari perspektif manajemen risiko, sama seperti ceroboh untuk memprioritaskan bahaya saat ini secara eksklusif, juga ceroboh untuk mengabaikannya,” tulis Hendrycks di Twitter.