Berkenaan isu risiko AI, orang besar dari semua lapisan masyarakat juga berbeza pendapat. Seseorang memimpin dalam menandatangani surat bersama yang menyeru makmal AI untuk segera menggantung penyelidikan Tiga gergasi pembelajaran mendalam, Geoffrey Hinton, Yoshua Bengio, dll. semuanya menyokong pandangan ini.
Baru beberapa hari ini, Bengio, Hinton dan lain-lain mengeluarkan surat bersama "Mengurus Risiko Kecerdasan Buatan dalam Era Pembangunan Pantas", menyeru penyelidikan sebelum membangunkan sistem AI . Pelabur harus mengambil langkah tadbir urus segera untuk memberi tumpuan kepada amalan keselamatan dan etika, dan menyeru kerajaan untuk mengambil tindakan untuk menguruskan risiko yang ditimbulkan oleh AI.
Artikel itu menyebut beberapa langkah tadbir urus segera, seperti melibatkan agensi negara untuk mengelakkan orang ramai daripada menyalahgunakan AI. Untuk mencapai peraturan yang berkesan, kerajaan perlu mempunyai pemahaman yang komprehensif tentang perkembangan AI. Pengawal selia harus mengambil beberapa langkah, seperti pendaftaran model, perlindungan pemberi maklumat yang berkesan, dan pemantauan pembangunan model dan penggunaan superkomputer. Pengawal selia juga memerlukan akses kepada sistem AI lanjutan sebelum digunakan untuk menilai keupayaan berbahaya mereka.
Pada bulan Mei tahun ini, sebuah organisasi bukan untung yang berpangkalan di AS, Pusat Keselamatan Kecerdasan Buatan, mengeluarkan kenyataan yang memberi amaran bahawa kecerdasan buatan harus dilihat sebagai berbahaya kepada manusia. Risiko kepupusan, seperti wabak. Kenyataan itu disokong oleh sesetengah pihak, termasuk Hinton dan Bengio. Bukan itu sahaja, tetapi kembali lebih jauh, pada bulan Mei tahun ini, Pusat Keselamatan Kecerdasan Buatan, sebuah organisasi bukan untung AS, mengeluarkan kenyataan yang memberi amaran bahawa kecerdasan buatan harus dianggap mempunyai risiko yang sama untuk memusnahkan manusia. sebagai wabak, dan orang yang sama yang menyokong kenyataan ini Termasuk Hinton, Bengio dan lain-lain
Pada bulan Mei tahun ini, Hinton meletak jawatan daripada tugasnya di Google agar dapat untuk membincangkan secara bebas risiko yang dibawa oleh kecerdasan buatan. Dalam temu bual dengan New York Times, beliau berkata: "Kebanyakan orang berfikir bahawa bahaya kecerdasan buatan masih jauh. Saya pernah berfikir begitu juga, dan mungkin mengambil masa 30 hingga 50 tahun atau lebih lama lagi. Tetapi sekarang, saya pemikiran telah Berubah.”
Di mata bos AI seperti Hinton, menguruskan risiko yang dibawa oleh kecerdasan buatan adalah tugas yang mendesak
Walaupun begitu, Yann LeCun, sebagai salah seorang tokoh penting dalam bidang pembelajaran mendalam, optimis tentang pembangunan kecerdasan buatan. Beliau mempunyai bantahan untuk menandatangani surat bersama mengenai risiko kecerdasan buatan, percaya bahawa pembangunan kecerdasan buatan tidak menimbulkan ancaman kepada manusia Semasa pertukaran, jawapan telah diberikan kepada beberapa soalan daripada netizen tentang risiko AI.
Netizen ini merujuk kepada respons LeCun terhadap artikel "'Ini perubahan iklimnya': Pakar membantu Rishi Sunak mengelak "warisannya", artikel itu percaya bahawa surat bersama yang dikeluarkan oleh Hinton, Bengio dan lain-lain telah mengubah pandangan orang ramai tentang AI, daripada pada mulanya melihat AI sebagai pembantu tambahan kepada melihat AI sebagai potensi ancaman. Artikel itu seterusnya mengatakan bahawa dalam beberapa bulan kebelakangan ini, pemerhati telah mengesan peningkatan sentimen di UK bahawa AI akan menyebabkan dunia berakhir. Pada bulan Mac tahun ini, kerajaan British menerbitkan kertas putih yang menjanjikan tidak akan menyekat inovasi dalam bidang AI. Namun hanya dua bulan kemudian, UK bercakap tentang meletakkan pagar pada AI dan menggesa AS untuk menerima rancangannya untuk peraturan AI global.
Pautan artikel: https://www.telegraph.co.uk/business/2023/09/23 /Sidang Kemuncak Keselamatan Kecerdasan Buatan Helios: Sunak dan Pakar AI/ (Nota: Kandungan yang disediakan sudah pun dalam bahasa Cina. Oleh itu, tidak perlu menulis semula.)
Respon LeCun terhadap artikel ini ialah dia tidak mahu Kebimbangan UK tentang risiko fatalistik AI akan merebak ke negara lain
Selepas itu, ada apa yang kami sebutkan tadi LeCun berkomunikasi dengan Peraturan Dan anda, Geoff, dan Yoshua memberi peluru kepada mereka yang melobi untuk mengharamkan penyelidikan AI terbuka
jika kempen ketakutan anda berjaya , pasti akan membawa kepada apa yang anda dan saya fikir adalah bencana: beberapa syarikat akan mengawal kecerdasan buatan
Sebahagian besar rakan sekerja akademik sangat menyokong penyelidikan dan pembangunan AI terbuka. Segelintir orang percaya senario kiamat yang anda promosikan. Anda, Yoshua, Geoff dan Stuart adalah satu-satunya pengecualian
Seperti ramai orang, saya adalah penyokong besar platform AI terbuka kerana saya percaya kepentingan mengintegrasikan pelbagai kuasa: kreativiti rakyat, demokrasi, Kekuatan pasaran dan peraturan produk. Saya juga mengetahui bahawa kami mempunyai keupayaan untuk menghasilkan sistem AI yang selamat dan di bawah kawalan kami. Saya telah membuat cadangan khusus yang saya harap akan mendorong orang ramai ke arah membuat keputusan yang betul
Penulisan anda memberikan perasaan bahawa AI adalah fenomena semula jadi dan kami tidak mempunyai kawalan ke atas perkembangannya. Tetapi pada hakikatnya ini tidak berlaku. Sebab mengapa AI boleh membuat kemajuan adalah kerana semua orang dalam masyarakat manusia. Setiap daripada kita mempunyai kuasa untuk mencipta perkara yang betul. Meminta pengawalseliaan R&D dengan berkesan mengandaikan bahawa orang ini dan organisasi tempat mereka bekerja adalah tidak cekap, melulu, merosakkan diri sendiri, atau jahat. Tetapi bukan itu yang berlaku
Saya telah mengemukakan banyak hujah untuk membuktikan bahawa senario kiamat yang anda takuti adalah tidak masuk akal. Saya tidak akan pergi ke butiran di sini. Tetapi perkara utama ialah jika sistem AI yang kuat didorong oleh matlamat, termasuk pagar, maka ia akan selamat dan boleh dikawal kerana ia menetapkan pagar dan matlamat tersebut. (LLM autoregresif semasa tidak didorong oleh matlamat, jadi jangan kita mengekstrapolasi daripada kelemahan LLM autoregresif)
Perkara tentang sumber terbuka ialah aktiviti anda akan mempunyai kesan yang bertentangan dengan apa yang anda lakukan. Pada masa hadapan, sistem AI akan menjadi rumah khazanah semua pengetahuan dan budaya manusia Apa yang kita perlukan ialah sumber terbuka dan platform percuma supaya semua orang boleh menyumbang kepadanya. Keterbukaan adalah satu-satunya cara untuk menjadikan platform AI mencerminkan rangkaian penuh pengetahuan dan budaya manusia. Ini memerlukan sumbangan kepada platform ini daripada sumber ramai, sama seperti Wikipedia. Melainkan platform dibuka, ini tidak akan berfungsi.
Jika platform AI sumber terbuka dikawal, situasi lain akan timbul di mana beberapa syarikat akan mengawal platform AI dan dengan itu mengawal semua kebergantungan digital orang ramai. Apakah maksud ini untuk demokrasi? Apakah yang dimaksudkan dengan kepelbagaian budaya? Inilah yang membuatkan saya terjaga sepanjang malam
Di bawah tweet LeCun, ramai orang turut menyatakan sokongan terhadap pandangannya
Irina Rish, profesor Jabatan Sains Komputer dan Penyelidikan Operasi di Universiti Montreal, juga Mila - Ahli Teras Quebec dari Institut AI. Beliau berkata bahawa mungkin penyelidik yang menyokong AI sumber terbuka tidak perlu lagi berdiam diri dan harus memimpin pembangunan AI yang baru muncul.
e/acc pengasas Beff Jezos juga berkata di ruang komen bahawa komen sedemikian adalah penting dan keperluan orang ramai.
Netizen berkata pada mulanya, membincangkan isu keselamatan boleh memperkayakan imaginasi semua orang tentang teknologi masa depan, tetapi novel fiksyen sains yang sensasi tidak seharusnya membawa kepada kemunculan dasar monopoli.
Hos podcast Lex Fridman mempunyai lebih banyak perkara untuk dinantikan dalam perbahasan ini.
Perbincangan tentang risiko AI juga akan menjejaskan pembangunan AI pada masa hadapan. Apabila idea mencuri tumpuan, orang ramai mengikutinya secara membuta tuli. Hanya apabila kedua-dua pihak boleh terus menjalankan perbincangan yang rasional barulah "wajah sebenar" AI benar-benar dapat dilihat.
Atas ialah kandungan terperinci Pemenang Anugerah Turing berhujah, LeCun: Teori kepupusan AI Bengio, Hinton, dll. adalah tidak masuk akal. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!