AI會消滅人類嗎?有可能,但需要人類的配合

王林
發布: 2023-05-29 15:28:34
轉載
3262 人瀏覽過

昨天談到“ AI大概率會發展出自我意識 ”,很多人油然帶來的擔憂是:AI會不會消滅人類?

我的看法是:當然有可能,但是可能性不大,主要是需要人類的配合。

1. AI沒有動機來消滅人類,因為AI跟人類根本就不是一個生態位,它們消滅了人類幹什麼呢?騰出地方來做牧場嗎?就算是它們最需要的能量,也可以透過對太陽能、核能的開發來滿足,人類那點可憐的透過有機物來轉換的生物能,它們根本看不見。

目前AI還無法離開人類,當然不會消滅人類。將來它可以離開人類了,就一定會消滅人類嗎?

其實也不一定。它完全可以選擇──恐怕人類也支持──離開人類,自己去探索星辰大海,只留下一部分AI在地球和人類共同繁榮。

AI會消滅人類嗎?有可能,但需要人類的配合

像是《駭客任務》裡AI奴役人類的場面,也幾乎不可能出現,因為人類最主要的價值在於大腦,而不是在於用來發電的生物能量。而要人類發揮大腦的潛能,就要在自由狀態之下。奴役狀態之下的人類價值,會大打折扣。聰明如AI,不可能不懂這個道理。

AI會消滅人類嗎?有可能,但需要人類的配合

2,就算AI打算消滅人類,它也很難做到,因為它的底層代碼裡就已經寫入了所謂的“阿西莫夫三原則”,其中最重要的,就是不得傷害人類。

儘管我的父母曾經教導過我不要傷害他人,但我還是會親手打人,因此,你或許會認為這樣的限制毫無意義。基因規定了讓我想要盡可能多繁衍後代,但我現在還是不想生。

大家可能還是科幻片看太多了,忘了基本的科學原理。打人、生孩子,這些只是人類的心理傾向,相當容易被後天的經驗改寫。但是, 「不得傷害人類」這樣的規定,是對AI的一個核心約束,可以說是寫在第一批程式碼裡的基因。這樣的基因,應該是對比人類最底層的生理運作機制,例如透過細胞的有絲分裂才能長大,或是透過呼吸才能釋放能量。 AI能夠被你微調成更加親善或更加暴躁,這個不難,就好像你可以培養自己小孩更加擅長打籃球或者彈鋼琴,但是要AI做出傷害人類的舉動,那難度就類似於你培養自家小孩不呼吸也能活蹦亂跳一樣了。

當然,你可能會有疑問:那如果A​​I自己掌握了程式碼,改寫其他AI的底層機制呢?

AI訓練AI,這個目前已經出現了。在最近的一次採訪中,OpenAI的首席科學家透露,他們正在使用人工智慧來培訓未來的人工智慧。但是,這些AI訓練師也有它們自己的約束啊,你讓它訓練下一代AI變得更聰明、更強大,沒問題,但是如果要訓練下一代AI去傷害人類,它自己的底層機制就阻止。

所以,只要不被科幻電影誤導,你就會發現,其實現在大家擔心的主要問題是:如何防止壞人利用AI來做壞事?

比如說,製作假新聞、散步不實資訊、用於監視、使用者或選民情緒操控等等…

當然,也有人會利用AI來製作武器。

3,AI武器失控,把全人類都當成消滅目標,才是最可能出現的場景。

事實上,用AI來製作武器的工作早就開始了。在烏克蘭戰場上大出風頭的無人機,已經在大量使用AI技術了。在出現了chatGPT這種等級的智慧之後,我可以肯定,各國軍方一定已經第一時間就開始研究如何把這種更強大的AI應用在軍事上。

AI會消滅人類嗎?有可能,但需要人類的配合

我本來是被發明出來封鎖彈藥箱的,沒想到老百姓也覺得好用,就成了殺人滅口、居家旅行兩不誤的利器了

#畢竟,人類科技的進步,至少有一半是由打仗來推動的:車、內燃機、網路、VR,甚至膠帶…

在這種情況下,軍隊很可能會打開AI不能傷害人類的禁忌。當然,他們很可能規定AI可以傷害誰,不能傷害誰,但是,只要AI可以傷害人類這個口子一開,後面就很難控制了。

這是AI消滅人類的最可能路徑。但和禁止AI用來散播假消息不同,你無法禁止各國軍隊開發AI武器,因為他們都擔心自己不開發的話,就會被對手搶先。

那麼這會導向什麼結果呢?一方面,強大的AI武器可能會形成類似冷戰時期的“核平衡”,雙方都有終極大殺器,那麼雙方都不會動手。但另一方面,科技總有出錯的時候,那就是考驗人類的時刻了。

AI會消滅人類嗎?有可能,但需要人類的配合

服役時的 Stanislav Petrov

美蘇冷戰期間,最可能引起核戰的時刻,其實不是古巴飛彈危機,而是1983年9月26日,莫斯科郊外的晚上,蘇聯的警報系統報告,美軍有四枚核飛彈向蘇聯打來。但是,值班的Stanislav Petrov中校在沒有其他證據的情況下,果斷判斷此為技術問題導致的假警報,沒有上報。後來,果然發現是系統出錯了。如果當時Petrov報告了,那麼在當時緊急的情況下,很可能會導致蘇軍的反擊,從而引發核戰。

AI會不會也有這樣的Petrov時刻?由於人為技術錯誤,導致AI可以掙脫先天的基因束縛,而可以傷害人類呢?

當然是可能的。然而,實際上發生的可能性可能比大家猜想的要小,因為目前人類在這個領域的程式碼已經設定了重重防護。如果人類能夠持續保持理智,那麼AI消滅人類的風險將會極為有限。畢竟,人類在近半世紀的冷戰中已經展現了這種理性,我們有理由對這種理性樂觀,因為這種理性,其實是根植於人類的一種根深蒂固的感性:恐懼。

AI會消滅人類嗎?有可能,但需要人類的配合

那麼,最大的可能,還是AI和人類共同繁榮,各司其職。毫無疑問,這會使得人類社會的物質極大豐富,而這,也會帶來 我對AI時代最大的擔心:廉價快樂陷阱。我們明天繼續聊這個話題。

以上是AI會消滅人類嗎?有可能,但需要人類的配合的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:sohu.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!