關於 AI 風險的問題,各路大佬們也是意見不統一。有人帶頭簽署聯名信,呼籲 AI 實驗室應立即暫停研究,深度學習三巨頭 Geoffrey Hinton、Yoshua Bengio 等都支持這一觀點。
就在近幾日,Bengio、Hinton 等再發聯名信《在快速發展的時代管理人工智慧風險》,呼籲在開發AI 系統之前,研究者應該採取緊急治理措施,將安全和道德實踐納入重點,呼籲各國政府應該採取行動,管理AI 帶來的風險。
文中提到了一些緊急治理措施,例如,讓國家機構也參與進來,從而防止人們對 AI 的濫用。為了實現有效的監管,政府需要全面了解人工智慧的發展。監管機構應採取一系列措施,如模型註冊、對舉報人進行有效保護以及對模型開發和超級電腦使用的監控等。監管機構還需要在部署之前訪問先進的人工智慧系統,以評估其危險功能。
今年五月,美國的一個非營利組織,人工智慧安全中心,發表了一份聲明,警告說人工智慧應該被視為對人類的滅絕風險,就像流行病一樣。聲明得到了包括 Hinton、Bengio 在內的一些人的支持。不僅如此,時間再往前一點,今年五月,美國非營利組織人工智慧安全中心發表了一份聲明,警告人工智慧應被視為與流行病一樣存在滅絕人類的風險,支持該聲明的人同樣包括Hinton、Bengio 等人
在今年五月,Hinton辭去Google的工作,目的是為了能夠自由地討論人工智慧帶來的風險。在接受《紐約時報》採訪時,他表示:「大多數人都認為人工智慧的危害還很遙遠。過去我也是這麼認為的,可能需要30到50年甚至更久的時間。但現在,我的想法已經改變了。」
在Hinton 等AI 大佬看來,管理人工智慧帶來的風險是一項迫切的任務
儘管如此,Yann LeCun作為深度學習領域中的重要人物之一,對人工智慧的發展持樂觀態度。他對簽署有關人工智慧風險的聯名信持有反對意見,認為人工智慧的發展並沒有對人類構成威脅
剛剛, LeCun 在與X 用戶的交流中,對網友的一些關於AI 風險的問題給了答案。
該網友是針對LeCun 對文章《'This is his climate change': The experts helping Rishi Sunak seal his legacy》的看法進行提問的,文章認為Hinton、Bengio 等人發表聯名信的行為使人們轉變了對AI 的看法,從一開始將AI 視為輔助助手,轉變為將AI 視為潛在威脅。文章接著表示,近幾個月來,觀察家在英國發現了越來越多的關於 AI 會造成世界末日的氛圍。今年三月,英國政府公佈了一份白皮書,承諾不會扼殺 AI 領域的創新。然而僅僅兩個月後,英國就開始談論對 AI 設置護欄,並敦促美國接受其全球人工智慧規則計畫。
文章連結:https://www.telegraph.co.uk/business/2023/09/23/太陽神人工智慧安全高峰會:孫納克與AI專家/ (Note: The provided content is already in Chinese. Therefore, there is no need to rewrite it.)
LeCun 對此文的回應是,他不希望英國對AI 存在宿命論風險的擔憂會傳播給其他國家
之後,就有了我們前面提到的LeCun 與X 用戶的交流,以下是LeCun 全部的回答:
「Altman、Hassabis 以及Amodei 正在進行大規模的企業遊說。他們正嘗試對AI 產業進行監管。而你、Geoff,還有Yoshua 正在給那些遊說禁止開放AI 研究的人提供『彈藥』。
如果你們的恐懼宣傳活動取得成功,將不可避免地造成你我都認為是災難的結果:少數公司將控制人工智慧
絕大多數學術同儕都對開放式 AI 研發持非常支持的態度。很少人相信你所宣傳的末日場景。你、Yoshua、Geoff 和Stuart 是其中唯一的例外
和許多人一樣,我對開放式人工智慧平台非常支持,因為我相信融合各種力量的重要性:人們的創造力、民主、市場力量和產品法規。我也了解到,我們有能力生產安全且受我們控制的人工智慧系統。我已經提出了具體的建議,希望能推動人們做出正確的決策
你的寫作給人一種AI是一種自然現象,我們無法控制其發展的感覺。但實際上情況並非如此。 AI之所以能夠進步,是因為人類社會中的每一個人。我們每個人都有能力創造正確的事物。要求對研發進行監管,實際上是在假設這些人以及他們所在的組織是無能、魯莽、自我毀滅或邪惡的。但實際情況並非如此
我已經提出了很多論點來證明你所害怕的末日場景是荒謬的。在此我就不再贅述了。但主要的一點是,如果強大的 AI 系統是由目標(包括護欄)驅動的,那麼它們就會是安全可控的,因為他們設定了這些護欄和目標。 (目前的自回歸LLM 並不是由目標驅動的,所以我們不要從自回歸LLM 的弱點來推斷)
關於開源這件事,你的活動所產生的效果將與你所追求的完全相反。在未來,AI 系統將成為人類所有知識和文化的寶庫,我們需要的是開源且免費的平台,以便每個人都能為此做出貢獻。開放是讓 AI 平台反映人類全部知識和文化的唯一方法。這就要求對這些平台的貢獻是眾包的,類似維基百科。除非平台是開放的,否則這樣做是行不通的。
如果監管開放原始碼的人工智慧平台,將會出現另一種情況,即少數公司將掌控人工智慧平台,從而控制人們所有的數位依賴。這對民主意味著什麼?對於文化多樣性又意味著什麼?這就是讓我整夜難以入眠的原因
在LeCun 的推文下方,也有許多人對他的觀點表示支持
蒙特婁大學電腦科學與運籌學系教授Irina Rish,也是Mila - Quebec AI 研究所的核心成員。她表示或許支持開源 AI 的研究人員不該再沉默了,應該引領新興 AI 的發展。
e/acc創辦人 Beff Jezos 也在留言區中表示,這樣的評論是重要的,也是人們所需要的。
網友表示,一開始,討論安全問題可以豐富大家對未來科技的想像,但是聳人聽聞的科幻小說不應當導致壟斷政策的出現。
播客主持人 Lex Fridman 對這場辯論有更多的期待。
關於 AI 風險的問題討論也將影響 AI 的未來發展。當一個觀點搶佔風頭時,人們會盲目跟隨。只有雙方能不斷地進行理性探討,才能真正看清 AI 的「真面目」。
以上是圖靈獎得主吵起來了,LeCun:Bengio、Hinton等的AI滅絕論是荒謬的的詳細內容。更多資訊請關注PHP中文網其他相關文章!