首頁 > 科技週邊 > 人工智慧 > 踩一踩ChatGPT!

踩一踩ChatGPT!

PHPz
發布: 2023-04-12 23:10:01
轉載
1236 人瀏覽過
作者 | Peter Wayner

策劃 | 壹舟

#ChatGPT熱度依舊霸榜,接連被許多名人點讚了!國外微軟的比爾蓋茲、納德拉、特斯拉的馬斯克,國內的李彥宏、週鴻禕、張朝陽,甚至不是科技圈的作者鄭淵潔,也因為ChatGPT的出現,開始相信「作家有可能在未來會失業」了。再例如驚動Google隱退的大佬布林,前美團聯合創始人王慧文也再度出山,廣發英雄帖招募AI人才,造一個中國OpenAI。

以ChatGPT和DALL-E為代表的生成式AI,以一系列令人眼花繚亂的風格,寫出了充滿豐富的細節、想法和知識的文本,拋出華麗的答案和藝術品。生成的人工製品如此多樣,如此獨特,以至於很難相信它們來自機器。

以至於一些觀察家認為,這些新的AI終於跨越了圖靈測試的門檻。用某些人的說法:這個門檻並沒有被輕微超過,而是被吹得粉碎。這門AI藝術太好了,「又有一批人已經瀕臨失業線」。

但是,經過一個多月來的發酵,人們對於AI的奇蹟感正在消退,生成式AI的「原始明星光環」也漸漸消失。例如,有些觀察者以正確的方式提問,而ChatGpt卻「吐」出了一些愚蠢甚至錯誤的東西。

再比如,有些人在小學美術課上使用了流行的老式邏輯炸彈,要求拍攝夜晚的太陽或暴風雪中的北極熊。其他人則提出了更奇怪的問題,AI的上下文感知的限制顯露無疑。

本文整理了生成式AI的「十大罪」。這些罪名可能讀起來像酸葡萄,(筆者也嫉妒AI的強大,如果機器被允許接管,筆者也會失去工作,哈哈~)但意在提醒,絕非抹黑。

1.剽竊抄襲更難檢測

當DALL-E和ChatGPT等生成式人工智慧模型創建時,它們實際上只是從訓練集中的數百萬個範例中建立新模式。結果是從各種來源提取的剪貼合成,當人類這樣做時,也被稱為抄襲。

當然,人類也是透過模仿來學習的,但在某些情況下,AI的這種「拿來」、「借用」卻是如此明顯,以至於會讓一位小學老師惱怒到無法給學生上課。這種人工智慧產生的內容由大量文本組成,這些文本或多或少都是逐字呈現的。然而,有時有足夠的摻雜或合成,即使是大學教授小組也可能難以檢測來源。不管怎樣,缺少的是獨特性。儘管這些機器閃閃發光,但它們無法生產任何真正的新產品。

2.版權:代替人類之時,訴訟興起之日

#雖然剽竊在很大程度上是學校的問題,但版權法適用於市場。當一個人從另一個人的工作中受到擠壓時,他們可能會被帶到法庭,法庭可能會處以數百萬美元的罰款。但AI呢?同樣的規則也適用於他們嗎?

版權法是一門複雜的學科,生成式AI的法律身分問題需要數年才能解決。但有一點不難預料:當人工智慧好到足以取代員工進行工作時,這些被替代的人中,肯定會利用「在家賦閒」的時間提起訴訟。

3.人類充當了模型的無償勞動力

剽竊和版權並不是生成式人工智慧引發的唯一法律問題。律師們已經在構思新的訴訟倫理問題。例如,製作繪圖程式的公司是否應該被允許收集有關人類使用者繪圖行為的數據,並能否將這些數據用於AI訓練?基於此,自己被使用的創造性勞動是否應該得到補償?目前AI的成功,很大程度源自於對數據的存取。那麼,當產生資料的大眾想要分一杯羹時能否實現呢?什麼是公平?什麼是合法的?

4.資訊堆砌,不是知識創造

AI特別擅長模仿人類需要數年才能發展出的那種智力。當一位學者能夠介紹一位默默無聞的17世紀藝術家,或以一種幾乎被遺忘的文藝復興音調結構,來創作新音樂時,我們有充分的理由來表達對此的驚艷之詞。我們知道,發展這種深度的知識需要多年的學習。當人工智慧只需要幾個月的訓練就完成了這些相同的事情時,結果可能會非常精確和正確,但有些東西是缺少的。

人工智慧只是似乎模仿了人類創造力中有趣和不可預測的一面,但卻“形似神不似”,無法真正做到這一點。同時,不可預測性是推動創造性創新的因素。像時尚娛樂產業,不僅沉迷於變化,也被「變化」所定義。

#

事實上,人工智慧和人自身的智慧都各有其擅長的領域。例如:如果一台訓練有素的機器能夠在一個裝滿數十億張唱片的數字盒中找到正確的舊收據,那麼它也可以了解像阿芙拉·貝恩( 17世紀第一位以寫作為生的英國女性)這樣的詩人所知道的一切。甚至可以設想,機器是為了破解瑪雅象形文字的意思而製造的。

5.智力停滯,難以成長

說到智能,人工智慧本質上是機械的和基於規則的。一旦人工智慧通過一組訓練數據,它就會創建一個模型,而這個模型並不會真正改變。一些工程師和資料科學家設想隨著時間的推移逐步重新訓練人工智慧模型,以便機器能夠學會適應。

但是,在大多數情況下,這個想法是創建一組複雜的神經元,以固定的形式編碼某些知識。這種「恆常性」有它的用武之地,可能適用於某些行業。但同時也是它的弱點,危險就在於它的認知將永遠停留在其訓練資料的「時代怪圈」。

假使我們變得十分依賴生成式AI,以至於無法再為訓練模型製作新材料時,會發生什麼?

6.隱私和安全的門閘太鬆

人工智慧的訓練資料需要來自某個地方,而我們並不總是那麼確定神經網路中會出現什麼。如果AI從其訓練資料中洩露個人資訊怎麼辦?

更糟的是,鎖定AI要困難得多,因為它們的設計非常靈活。關係資料庫可以限制對具有個人資訊的特定表的存取。然而,人工智慧可以透過數十種不同的方式進行查詢。攻擊者很快就會學會如何以正確的方式提出正確的問題,以獲取他們想要的敏感資料。

例如,假設攻擊者,盯上了某處資產的位置,AI也能被用來旁敲側擊地問出緯度和經度。一個聰明的攻擊者可能會詢問幾個星期後太陽在該地點升起的確切時刻。盡責的人工智慧會盡力給出答案。如何教導人工智慧保護隱私數據,也是一個難題。

7.未知的偏見之地

自大型主機年代起,技術圈就創造了「垃圾輸入,垃圾輸出」(GIGO)的概念,也讓大眾看到了電腦問題的核心。 AI的許多問題來自於糟糕的訓練資料。如果資料集不準確或有偏差,結果也會如此反映。

生成式AI的核心硬體理論上是邏輯驅動的,但製造和訓練機器的人類卻不是。司法前的意見和政派偏見已經被證明可以引入人工智慧模型。也許有人使用了有偏見的數據來創建模型。也許他們加入了某類訓練語料以防止模型回答特定的熱門問題。也許他們輸入了硬連線的答案,然後變得難以偵測。

人工智慧的確是個不錯的工具,但這也意味著,別有用心之人有一萬種方法,讓AI成為有害信念的絕佳載體。

這裡有個國外買房貸款的例子。案例中,用於評估潛在租戶的AI系統依賴於法庭記錄和其他數據集,這些數據集大都帶有自身偏見,反映了系統性的種族主義、性別歧視和能人主義,而且眾所周知,錯誤很多。儘管有的人明明有能力支付租金,但他們經常被拒絕提供房屋貸款,因為租戶篩選演算法認為他們不合格或不值得。這也是我們常聽到的業務員給的答案:大數據/系統/AI這麼提示的。

踩一踩ChatGPT!

ChatGPT被冒犯後的表現

8.機器的愚蠢,來得猝不及防

人們很容易原諒人工智慧模型犯的錯誤,因為它們做了很多其他事情。只是很多錯誤很難預料,因為人工智慧的思考方式與人類不同。

例如,許多文字到圖像功能的使用者發現,人工智慧會犯一些很簡單的錯誤,例如計數。人類在小學早期就學會了基本的算術,然後我們以各種各樣的方式使用這項技能。讓一個10歲的孩子畫一隻章魚,孩子幾乎肯定會確定它有八條腿。當涉及數學的抽象和上下文用途時,當前版本的人工智慧往往會陷入困境。

如果模型建構者對這個失誤給予一定的關注,這可能很容易改變,但也會有其他未知的錯誤。機器智能不同於人類智能,這意味著機器的愚蠢也將不同。

9.機器也會說謊,很容易騙人

有時,在沒有意識到這一點的情況下,我們人類往往會掉進AI的坑裡。在知識盲區裡,我們傾向於相信AI。如果AI告訴我們亨利八世是殺害妻子的國王,我們不會質疑,因為我們自己也不知道這段歷史。我們往往假設人工智慧是正確的,就像我們作為大會的觀眾,看到有魅力的主持人揮手時,也一樣默認選擇相信「台上那位比我懂得多」。

對於生成式AI的使用者來說,最棘手的問題是知道人工智慧何時出錯。 「機器不會說謊」常常是我們的口頭禪,然而事實上並非如此。機器雖然不能像人類那樣說謊,但它們犯的錯誤也意味著更危險。

他們可以在任何人都不知道發生了什麼的情況下,寫出一段完全準確的數據,然後轉向猜測,甚至轉變成一場謊言。 「真假參半」的藝術,AI也會。但不同的是,二手車經銷商或撲克玩家往往知道自己何時在撒謊,大多數人都會說出自己的哪裡撒謊了,AI卻做不到。

10.無限濫用:經濟模式堪憂

數位內容具有無限的可複製性,這已經使許多圍繞稀缺性建立的經濟模型陷入困境。生成式AI將進一步打破這些模式。生成式人工智慧將使一些作家和藝術家失業,它也顛覆了我們所有人所遵循的許多經濟規則。

  • 當廣告和內容都可以無止盡地重新組合和再生時,廣告支援的內容會起作用嗎?
  • 網路的免費部分是否會變成一個「機器人點擊頁面廣告」的世界,所有這些都是由人工智慧產生的,可以無限複製?
  • 如此輕鬆實現的“繁榮富足”,可能會破壞經濟的各個角落。
  • 如果不可替代代幣可以永久複製,人們會繼續為其支付費用嗎?
  • 如果製作藝術如此容易,它還會受到尊重嗎?它還會很特別嗎?有人會介意它不是特別的嗎?
  • 當一切都被視為理所當然時,一切都會失去價值嗎?
  • 莎士比亞在談到「slings and arrows of outrageous fortune(暴富之命運)」時,這就是他的意思嗎?

我們不要試著自己回答,讓生成式AI自己來。它可能會回傳一個有趣、別緻且奇怪的答案,而且極有可能穩穩地拿捏了「模稜兩可」的界線——一個略帶神秘感,遊走在是非邊緣,又不倫不類的答案。

原文連結:https://www.infoworld.com/article/3687211/10-reasons-to-worry-about-generative-ai.html

以上是踩一踩ChatGPT!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板