人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

WBOY
發布: 2023-06-09 20:21:54
轉載
1183 人瀏覽過

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

包括OpenAI和GoogleDeepmind負責人在內的專家警告,人工智慧可能導致人類滅絕,但是機器如何取代人類呢?

自2022年11月推出以來,ChatGPT——一款使用人工智慧根據用戶的需求回答問題或產生文字甚至程式碼的聊天機器人,已成為史上成長最快的網路應用程式。

在短短兩個月的時間裡,它的活躍用戶達到了1億。根據科技監測公司Sensor Town的說法,Instagram花了長達兩年半的時間才達成這個里程碑。

OpenAI公司在微軟的資助下開發的ChatGPT廣受歡迎,引發了人們對人工智慧影響人類未來的激烈猜測。

數十名專家支持在人工智慧安全中網頁上發表的聲明,表示:「減輕人工智慧造成的滅絕風險,應該與流行病和核戰等其他社會規模的風險一起成為全球優先事項。」

但也有人表示,這種擔憂被誇大了。

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

模仿人類

ChatGPT、DALL-E、Bard和AlphaCode等人工智慧產出的文本(從散文、詩歌和笑話到電腦程式碼)和圖像(如圖表、照片和藝術品),幾乎與人類自己的作品一模一樣,難以區分。

學生用它來寫作業,政客們用它來寫演講稿。民主黨眾議員傑克·奧金克洛斯在美國國會推出了這項資源。

科技巨頭IBM稱,將停止招募7,800個可以由人工智慧處理的職位。

如果所有這些變化讓你不知所措,那就做好準備:

我們還只是處於人工智慧的第一階段,還有兩個階段即將到來,一些科學家害怕這可能會威脅到人類的生存。

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

以下是三個階段。

1. 弱人工智慧(Artificial Narrow Intelligence)

弱人工智慧也被稱為限制領域人工智慧,專注於單一任務,在一系列功能中執行重複性工作。

它通常從大量資料中學習,例如從網路上學習,但只在它被程式設計的特定領域學習​​。

一個例子是像棋程序,能夠擊敗世界冠軍,但無法執行其他任務。

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

智慧型手機上到處都是使用這種技術的應用程序,從GPS地圖,到了解你的口味並提出建議的音樂和視頻程式。

複雜得多的系統,例如無人駕駛汽車和ChatGPT,仍然屬於弱人工智慧的類別。他們不能在設定的角色範圍之外運作,所以不能靠自己做決定。

但一些專家認為,被編程為具有自動學習功能的系統,如ChatGPT或AutoGPT,可能會進入下一個發展階段。

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

2. 人工通用智能(Artificial General Intelligence)

當機器能夠完成人類所能完成的任何智力任務時,人工通用智慧就會到來。

它也被稱為「強人工智慧」。

6個月的暫停

#2023年3月,1000多名技術專家呼籲“所有人工智慧實驗室立即暫停至少6個月的比GPT-4更強大的人工智慧系統的訓練”,GPT-4是ChatGPT的最新版本。

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

包括蘋果聯合創始人史蒂夫·沃茲尼亞克以及包括特斯拉和SpaceX公司老闆馬斯克在內的其他科技巨頭寫道:「具有與人類競爭智力的人工智慧系統可能對社會和人類構成深刻的風險。」馬斯克曾是OpenAI的共同創辦人之一,後來因與公司領導層意見不合而辭去了董事會職務。

在这封由非营利机构“生命未来研究所”发布的信中,专家们表示,如果公司拒绝迅速停止它们的项目,“政府应该介入并实施暂停令”,以便设计和实施安全措施。

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

“既聪明又愚蠢”

牛津大学人工智能伦理研究所的卡丽莎·韦丽兹在这封信上签了名。她拒绝签署,因为她认为人工智能安全中心最终发布的警告声明过于极端。

“我们目前正在开发的这种人工智能既聪明又愚蠢,”她告诉安德鲁·韦伯,“如果有人尝试过ChatGPT或其他人工智能,他们会注意到它们有非常显著的局限性。”

韦丽兹表示,她担心人工智能会以极高的速度制造错误信息。

随着2024年美国总统选举的临近,我越来越担心像推特和其他重要平台解雇了他们的人工智能道德和安全团队。”

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

美国政府承认潜在的威胁。白宫在5月4日的一份声明中称:“人工智能是我们这个时代最强大的技术之一,但为了抓住它带来的机遇,我们必须先降低它的风险。”

美国国会曾传唤OpenAI首席执行官山姆·阿尔特曼回答有关ChatGPT的问题。

在参议院听证会上,阿尔特曼表示,随着人工智能的发展,政府对他的行业进行监管是“非常重要的”。

生命未来研究所的公共政策研究员古铁雷斯对记者解释,人工智能带来的巨大挑战之一是,“没有一个由专家组成的联合机构来决定如何监管它,就像政府间气候变化专门委员会那样。”

这就把我们带到了人工智能的第三个也是最后一个阶段。

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

3. 超人工智能

这个理论认为,一旦我们达到第二阶段,我们将很快进入最后阶段,即“超级人工智能”。当人工智能超过人类智能时,就会出现这种情况。

牛津大学哲学家、人工智能专家博斯特罗姆将超智能定义为“在几乎所有领域,包括科学创造力、一般智慧和社交技能,都远远超过最优秀的人类大脑的智能”。

“人类要成为工程师、护士或律师,必须学习很长时间。古铁雷斯解释说,“通用人工智能的难点在于它能够在我们无法做到的情况下不断自我改进。”。

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

科幻小说

这个概念让人想起了电影《终结者》的情节,在这部电影中,机器发动了一场毁灭人类的核战争。

普林斯顿大学的计算机科学家纳拉亚南此前曾告诉记者,科幻般的灾难场景是不现实的:“目前的人工智能还远远不足以让这些风险成为现实。最后,它分散了人们对人工智能短期危害的注意力。”

虽然对于机器是否真的能获得人类拥有的那种广泛的智能,尤其是在情商方面,存在很多争论,但这是那些认为我们即将实现通用人工智能的人最担心的事情之一。

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

最近,"人工智能教父"杰弗里·欣顿警告称,我们可能即将迈过这个里程碑。欣顿是教授机器从经验中学习的先驱。

“我认为,现在(机器)并不比我们聪明。考虑到他已退休并且已经年届75岁,我认为他们很可能很快实现这一点。

欣顿在发给《纽约时报》的一份宣布离开谷歌的声明中表示,他现在对自己所做的工作感到后悔,因为他担心“糟糕的参与者”会利用人工智能做“坏事”。

他警告说,这些机器最终可能会“创造出‘我需要更多权力’这样的子目标”,这将带来“生存风险”。

雖然欣頓承認人工智慧可能有風險,但他認為在短期內其帶來的好處要大於風險,因此認為我們不應該停止開發這種技術。 」他說。

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

滅絕還是不死

#英國物理學家史蒂芬霍金發出嚴厲的警告。

「人工智慧的全面發展可能意味著人類的終結,」他在2014年告訴記者,也就是他去世前四年。

他說,具有這種智慧水平的機器「將自行發展,並以越來越快的速度重新設計自己」。

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

奈米機器人與永生

#未來主義發明家兼作家庫茲韋爾是人工智慧的最大愛好者之一,他是Google的人工智慧研究員,也是矽谷奇點大學的共同創辦人。

庫茲韋爾認為,人類將能夠使用超級智慧的人工智慧來克服生物障礙。

2015年,他預測,到2030年,因為奈米機器人(非常小的機器人)在我們體內工作,能夠修復和治癒任何損傷或疾病,人類將實現永生。

人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術

人工智慧管理

古鐵雷斯同意,關鍵是要創建一個人工智慧治理系統。

「想像一下這樣的未來:一個實體擁有地球上每個人及其習慣的大量資訊(因為網路搜尋),它可以用我們無法意識到的方式控制我們。」他說。

「最糟糕的場景並不是人類與機器人之間的戰爭。我們與一個比我們更聰明的存在共享這個星球,而且很遺憾的是,我們沒有意識到自己被操縱了。」

以上是人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:sohu.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板