Kecerdasan buatan ialah teknologi berkuasa yang dijangka mengubah sepenuhnya kehidupan kita. Ini tidak pernah menjadi lebih jelas daripada hari ini alatan berkuasa tersedia untuk sesiapa sahaja yang mempunyai sambungan Internet.
Alat ini termasuk penjana pertuturan kecerdasan buatan, perisian lanjutan yang meniru pertuturan manusia dengan begitu rapat sehingga mustahil untuk membezakan dan membezakan antara keduanya. Apakah maksud ini untuk keselamatan siber?
Bagaimana penjana pertuturan AI berfungsi?
Sintesis pertuturan merujuk kepada proses penjanaan pertuturan manusia secara buatan, dan ia telah wujud selama beberapa dekad. Seperti semua teknologi, ia telah mengalami perubahan yang ketara dan mendalam selama ini.
Pengguna yang telah menggunakan Windows 2000 dan XP mungkin mengingati Microsoft Sam, yang merupakan suara lelaki teks ke pertuturan lalai dalam sistem pengendalian Microsoft. Prestasi Microsoft Sam boleh digambarkan sebagai agak memuaskan, tetapi bunyi yang dihasilkannya sangat mekanikal, sangat kaku, dan sangat buatan. Alat yang kami ada di hujung jari kini jauh lebih maju, sebahagian besarnya berkat pembelajaran mendalam.
Pembelajaran mendalam ialah kaedah pembelajaran mesin berdasarkan rangkaian saraf tiruan. Terima kasih kepada rangkaian saraf ini, AI moden boleh memproses data hampir sama kuatnya dengan neuron dalam otak manusia mentafsir maklumat. Dalam erti kata lain, semakin banyak kecerdasan buatan seperti manusia, semakin baik ia akan meniru tingkah laku manusia.
Ringkasnya, beginilah cara penjana pertuturan AI moden berfungsi. Lebih banyak data pertuturan mereka terdedah, lebih baik mereka meniru pertuturan manusia. Terima kasih kepada kemajuan terkini dalam teknologi, perisian teks-ke-pertuturan tercanggih pada asasnya boleh meniru bunyi yang diberikan kepadanya.
Bagaimanakah pelakon ancaman menggunakan penjana pertuturan AI?
Seperti yang dijangka, teknik ini disalahgunakan oleh pelakon ancaman. Bukan sahaja penjenayah siber dalam pengertian klasik, tetapi juga ejen disinformasi, penipu, pemasar topi hitam dan troll.
Saat ElevenLabs mengeluarkan versi beta perisian teks ke pertuturannya pada Januari 2023, troll paling kanan di papan mesej 4chan mula menyalahgunakannya. Mereka menggunakan teknologi kecerdasan buatan yang canggih ini untuk meniru suara selebriti seperti penyampai TV BBC David Attenborough dan pelakon terkenal Emma Watson, menjadikannya kelihatan seolah-olah selebriti ini menyampaikan omelan yang kejam dan penuh kebencian.
Seperti yang dilaporkan oleh Vice media asing IT pada masa itu, ElevenLabs mengakui bahawa sesetengah orang menyalahgunakan perisiannya, terutamanya fungsi pengklonan suara. Ciri ini membolehkan sesiapa sahaja untuk "mengklon" suara orang lain; anda hanya memuat naik rakaman selama seminit dan biarkan AI melakukan yang lain. Agaknya, semakin lama masa rakaman, semakin realistik outputnya.
Pada Mac 2023, video yang menjadi tular di TikTok telah menarik perhatian Majalah New York Times. Dalam video ini, hos podcast selebriti Joe Rogan dan Dr. Andrew Huberman, tetamu yang kerap di rancangannya The Joe Rogan Experience, membincangkan minuman kafein "meningkatkan libido". Video ini menjadikannya kelihatan seperti Rogan dan Huberman jelas menyokong produk ini. Malah, suara mereka diklon menggunakan kecerdasan buatan.
Pada masa yang sama, Bank Silicon Valley yang berpangkalan di Santa Clara, California runtuh akibat kesilapan pengurusan risiko dan masalah lain dan telah diambil alih oleh kerajaan. Ia merupakan kegagalan bank A.S. yang paling teruk sejak krisis kewangan 2008 dan menyebabkan gelombang kejutan melalui pasaran global.
Apa yang membuatkan orang lebih panik ialah rakaman palsu Presiden Biden dari Amerika Syarikat. Dalam rakaman itu, Biden jelas kedengaran memberi amaran tentang "keruntuhan" yang akan berlaku dan mengarahkan kerajaan A.S. untuk "menggunakan sepenuhnya kuasa media untuk meyakinkan orang ramai." Tapak mencari kebenaran seperti PolitiFact dengan cepat menafikan video itu, tetapi kini berjuta-juta orang mungkin telah mendengar rakaman itu.
Jika penjana suara AI boleh digunakan untuk menyamar sebagai selebriti, ia juga boleh digunakan untuk menyamar sebagai orang awam, iaitu apa yang telah dilakukan oleh penjenayah siber. Menurut media asing IT ZDNet, beribu-ribu rakyat Amerika jatuh untuk penipuan pancingan data suara setiap tahun. Pada 2023, sepasang suami isteri warga emas menjadi tajuk utama berita nasional apabila mereka menerima panggilan telefon daripada “cucu” mereka yang mendakwa berada di penjara dan meminta wang daripada mereka.
Jika anda pernah memuat naik video YouTube (atau telah dipaparkan dalam video YouTube), mengambil bahagian dalam panggilan persidangan kumpulan besar dengan sekumpulan orang yang anda tidak kenali, atau entah bagaimana memuat naik suara anda ke Internet, secara teorinya Katakan anda atau rakan atau saudara mungkin berada dalam bahaya. Apakah yang boleh anda lakukan untuk menghentikan penipu daripada memuat naik suara anda ke penjana AI, mengklonkannya, dan kemudian berpura-pura menjadi anda untuk menghubungi keluarga anda?
Penjana suara kecerdasan buatan meningkatkan landskap keselamatan siber
Anda tidak perlu menjadi pakar keselamatan siber untuk menyedari bahawa kecerdasan buatan berada dalam tangan yang salah Tangan sangat berbahaya. Walaupun ini berlaku untuk semua teknologi, kecerdasan buatan adalah ancaman unik atas beberapa sebab.
Pertama sekali, ia adalah teknologi yang agak baharu, yang bermaksud kita sebenarnya tidak tahu apa yang boleh dibawanya kepada kita. Alat kecerdasan buatan moden membolehkan penjenayah siber membuat skala dan mengautomasikan kempen mereka seperti tidak pernah berlaku sebelum ini, sambil mengambil kesempatan daripada kejahilan relatif orang ramai tentang isu tersebut. Di samping itu, AI generatif membolehkan pelaku ancaman yang kurang pengetahuan dan kemahiran untuk mencipta kod berniat jahat, membina tapak web yang mengelirukan, menyebarkan spam, mengarang e-mel pancingan data, menjana imej realistik dan menjana kandungan audio dan video palsu dalam bentuk panjang.
Yang penting, kita boleh memanfaatkan AI secara bergilir-gilir: AI juga digunakan untuk melindungi sistem, dan kemungkinan akan digunakan untuk beberapa dekad akan datang. Boleh diramalkan, akan ada sesuatu perlumbaan senjata AI antara penjenayah siber dan industri keselamatan siber, kerana keupayaan pertahanan dan serangan alat ini pada asasnya adalah sama.
Bagi orang biasa, percambahan AI generatif memerlukan pemikiran semula sepenuhnya tentang amalan keselamatan. Walaupun AI mungkin menarik dan berguna, ia sekurang-kurangnya boleh mengelirukan perkara sebenar dan, paling teruk, memburukkan lagi masalah keselamatan sedia ada dan menyediakan arena baharu untuk pelaku ancaman.
Penjana pertuturan menunjukkan potensi gangguan kecerdasan buatan
Sebaik sahaja ChatGPT dilancarkan, perbincangan tentang mengawal selia kecerdasan buatan mula hangat. Sebarang percubaan untuk mengekang teknologi ini berkemungkinan memerlukan kerjasama antarabangsa, memerlukan tahap kerjasama yang belum pernah kita lihat dalam beberapa dekad yang lalu, jadi mengekang kecerdasan buatan tidak mungkin.
Jin sudah keluar dari botol yang boleh kita lakukan ialah membiasakan diri dengannya. Saya harap industri keselamatan siber boleh membuat pelarasan yang sepadan.
https://www.makeuseof.com/ai-voice-generators-security-threat
Atas ialah kandungan terperinci Adakah penjana pertuturan AI akan menjadi ancaman keselamatan utama seterusnya?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!