人工智慧的許多優點是眾所周知、被理解和被吹捧的,可其的限制也是顯而易見的。不過,人工智慧還是有其他一些顯著的特徵,雖不常被提及,但也值得被關注。
AI應用程式可以輕鬆執行極為複雜的任務。其可以為你可能喜歡的下一首歌提供個人化推薦,或從數百萬張x光片中挑選出顯示問題的那一首。此外,其還能夠以人類專家無法比擬的數量和準確度完成此類任務。單調而重要的工作可以被完美地、毫無怨言地完成。
同時,也有許多文章說人類擁有人工智慧所缺乏的能力。這些文章通常認為,人類和人工智慧必須合作,而人工智慧可以增強人類更廣泛的能力。我們可以想像、預測、感覺和判斷不斷變化的情況。由於尚未實現更廣泛的通用人工智慧,目前的人工智慧模型——在狹窄任務中表現出色——仍然受益於人類指導。
顯而易見的是,人工智慧的優勢與人類的弱點直接對應。與人類不同的是,人工智慧理解機率,不引入偏見,保持一致,並避免不必要的風險。
人類理解結果,但通常不擅長處理機率。 MontyHall的《Let’sMakeaDeal》就是一個例子,在這裡人類表現出了對機率和先驗更新的缺乏理解。在這個遊戲中,有三扇門:一扇有汽車,另兩扇有山羊。參賽者隨機選擇一扇門,Monty 選擇打開一扇有山羊的門。然後, Monty給參賽者一個機會,讓他們可切換到另一扇關閉的門。他們應該嗎?事實證明,通過打開一扇門, Monty給了參賽者額外的信息,如果參賽者總是切換,那麼有三分之二的幾率贏得汽車。人類往往會錯誤地回答這類問題,但人工智慧可以完美地回答它。
人類有許多偏見,不管是叫它們「直覺」還是其他什麼名字。確認偏誤可能是最常見的:人類尋找並解釋支持先入為主假設或理論的資訊。兩個人在觀看同一個新聞節目時,可能會對當天的事件得出不同的結論。相較之下,偏見只會在人工智慧中透過人類提供給其學習的數據表現出來。人工智慧的偏見僅限於有限的數據集,而不是不斷變化的人類經驗、記憶、信仰和恐懼的複雜性。從這個意義上說,人工智慧偏見可以說比人類偏見更離散和可解決。
人工智慧是一致的,這讓人很痛苦。除非另有說明,否則人工智慧將按照人類一貫的要求行事。人類始終如一的一個特點就是在運動、飲食、上班路線等方面都是不一致的。此外,人類會為自己的不一致找到合理的解釋。同樣的病人以同樣的症狀出現在同一位醫生面前,可能在不同的時間得到不同的診斷,這並不是不可理解的。人工智慧保證程式和結果的一致性,前提是基礎人群不存在巨大偏差。
人工智慧不會冒險,但人類會。這就是為什麼希望人類智慧來增強人工智慧。人類智慧的力量正在承擔風險,並押注於此。例如,在沒有演算法支援的情況下,押注電動車。但有時這種風險會表現為動力失調,例如造成機組人員死亡的挑戰者號太空梭災難。雖然一名工程師以O型密封圈的設計缺陷為理由,敦促推遲發射,但太空梭仍按計畫升空,並在起飛一分鐘後爆炸。在1986年那場致命災難的分析中,社會學家DianeVaughan創造了「偏差正常化」這個詞,用來描述團隊對不健全的實踐變得麻木不仁。人工智慧會客觀地評估並決定推遲發射。
所以,人工智慧無法想像、預測、感覺和判斷,但理解機率,不會引入新的偏見,保持一致,並避免不必要的風險。人類能夠感知和判斷的事實,可能並不總是對自己有利。
以上是人工智慧可以克服人類的弱點的詳細內容。更多資訊請關注PHP中文網其他相關文章!