OpenAI的ChatGPT帶來的八大問題

WBOY
發布: 2023-05-16 10:34:05
轉載
1191 人瀏覽過

OpenAI的ChatGPT帶來的八大問題

ChatGPT是一款功能強大的人工智慧聊天機器人,在推出後很快就給人留下了深刻的印象,但許多人指出它有一些嚴重的缺陷。

從安全漏洞到隱私問題,再到未經披露的訓練數據,人們對人工智慧聊天機器人的應用有很多擔憂,但這項技術已經被整合到應用程式中,並被大量用戶使用,從學生到公司員工。

由於人工智慧的發展沒有放緩的跡象,了解ChatGPT的問題就顯得更加重要了。隨著ChatGPT將改變人們的未來,以下介紹了ChatGPT的一些最主要的問題。

什麼是ChatGPT?

ChatGPT是一個大型語言模型,旨在產生自然的人類語言。就像與某人交談一樣,人們可以與ChatGPT交談,它會記住人們在過去說過的話,同時也能夠在受到挑戰時自我糾正。

它接受了來自互聯網的各種文本的訓練,例如維基百科、部落格文章、書籍和學術文章。除了以類似人類的方式回應,它還可以回憶當今世界的訊息,並從過去提取歷史資訊。

學習如何使用ChatGPT很簡單,而且很容易被愚弄,認為人工智慧系統沒有任何麻煩。然而,在它發布後的幾個月裡,隱私、安全及其對人們生活的更廣泛影響(從工作到教育)出現了一些關鍵的問題。

1、安全威脅和隱私問題

在2023年3月,ChatGPT出現了一個安全漏洞,一些用戶在其側邊欄中看到了他人的對話標題。對於任何一家科技公司來說,不小心分享用戶的聊天記錄都是一個嚴重的問題,考慮到很多人都在使用這個流行的聊天機器人,這種情況尤其糟糕。

根據路透社報道,光是2023年1月,ChatGPT的月活躍用戶就達到1億。雖然導致資料外洩的漏洞很快就得到了修補,但義大利資料監管機構要求OpenAI公司停止處理義大利用戶資料的所有操作。

該機構懷疑ChatGPT違反了歐洲隱私法規。在調查了這個問題後,要求OpenAI公司滿足幾項要求才能恢復聊天機器人的使用。

OpenAI公司最終透過做出幾個重大改變解決了這個問題。首先,增加了年齡限制,只有18歲以上或13歲以上的人在監護人的許可下才能使用該應用程式。它還使其隱私權政策更加明顯,並為用戶提供了一個選擇退出的表單,以排除他們的資料用於訓練ChatGPT,如果他們願意,可以完全刪除這些資料。

這些變化是一個很好的開始,但是這些改進應該會擴展到所有ChatGPT用戶。

這也不是ChatGPT造成安全威脅的唯一方式。與使用者一樣,員工不小心分享機密資訊也很容易。一個很好的例子是三星公司的員工多次與ChatGPT分享公司資訊。

2、對ChatGPT訓練和隱私問題的擔憂

在ChatGPT大受歡迎之後,許多人質疑OpenAI公司最初是如何訓練其模型的。

即使在義大利發生資料外洩事件之後,OpenAI公司的隱私權政策有所改善,但難以滿足《一般資料保護條例》的要求,這是一項涵蓋歐洲的資料保護法。正如TechCrunch所報導的那樣:「目前尚不清楚如何採用義大利民眾的個人資料訓練GPT模型,即從網路上抓取公共資料時的個人資料是否得到了有效的合法處理。或者,如果使用者現在要求刪除他們的數據,以前用於訓練模型的數據是否會被刪除或可以被刪除。」

OpenAI公司很有可能在訓練ChatGPT時收集了個人資訊。雖然美國的法律沒有那麼明確,但歐洲的數據法規仍然注重保護個人數據,無論他們是公開還是私下發布這些資訊。

藝術家們也提出了類似的反對用作訓練資料的論點,他們表示,他們從未同意讓自己的作品訓練人工智慧模型。同時,蓋蒂圖片社起訴了Stability.AI公司使用其受版權保護的圖像來訓練其人工智慧模型。

除非OpenAI公司公佈其訓練數據,否則缺乏透明度,很難知道是否合法。例如,人們根本不知道ChatGPT訓練的細節,使用了什麼數據,數據來自哪裡,或是系統架構的細節是什麼樣子。

3、ChatGPT產生錯誤答案

ChatGPT在基本的數學方面不擅長,似乎不能回答簡單的邏輯問題,甚至會爭論完全錯誤的事實。正如社交媒體上的人們所證明的那樣,ChatGPT在許多場合都可能出錯。

OpenAI公司了解這些限制。該公司表示:「ChatGPT有時會寫出聽起來似乎合理但不正確或無意義的答案。」這種對事實和虛構的幻覺,正如該公司所提到的那樣,對於醫療建議或對關鍵歷史事件的事實的正確理解等事​​情來說尤其危險。

與Siri或Alexa等其他人工智慧助理不同,ChatGPT並不會使用網路查詢答案。與其相反,它逐字逐句地建立句子,根據訓練選擇最可能出現的「標記」。換句話說,ChatGPT透過進行一系列猜測來得出答案,這就是它可以爭論錯誤答案的原因,就好像它們是完全正確的一樣。

雖然它很擅長解釋複雜的概念,使它成為一個強大的學習工具,但重要的是不要相信它所說的一切。 ChatGPT並不總是正確的,至少現在還不是。

4、ChatGPT的系統中存在偏見

ChatGPT是根據過去和現在世界各地人類的寫作進行訓練的。不幸的是,這意味著現實世界中存在的偏見也可能出現在人工智慧模型中。

事實證明,ChatGPT會產生一些歧視性別、種族和少數群體的糟糕答案,該公司正在努力減少這些問題。

解釋這個問題的一種方法是指出數據是問題所在,將網路內外的偏見歸咎於人類。但部分責任也在於OpenAI公司,該公司的研究人員和開發人員選擇用來訓練ChatGPT的資料。

OpenAI公司再次意識到這是一個問題,並表示它正在透過收集用戶的回饋並鼓勵他們標記糟糕、冒犯或根本不正確的ChatGPT輸出來解決「偏見行為」。

由於ChatGPT有可能對人們造成傷害,人們可能會認為,在研究和解決這些問題之前,不應該向公眾發布ChatGPT。但是,致力於成為第一家創造最強大人工智慧模型的公司,已經足以讓OpenAI公司把謹慎拋到腦後。

相較之下,Google母公司Aalphabet公司於2022年9月發布了一款名為「Sparrow」的類似人工智慧聊天機器人。然而,出於類似的安全考慮,該機器人被放棄。

大約在同一時間,Facebook公司發布了一種名為Galactica的人工智慧語言模型,旨在幫助學術研究。然而,在許多人批評它輸出了與科學研究有關的錯誤和有偏見的結果後,它迅速被召回。

5、聊天技術可能會取代人類的工作

ChatGPT的快速發展和部署尚未塵埃落定,但這並沒有阻止底層技術被整合到許多商業應用程式中。整合了GPT-4的應用程式包括Duolingo和Khan Academy。

前者是語言學習應用,而後者則是多元化的教育學習工具。兩者都提供了本質上的人工智慧導師,或者以人工智慧驅動的角色的形式,用戶可以用其正在學習的語言與之交談。或者作為一名人工智慧導師,可以為其學習提供量身定制的回饋。

這可能只是人工智慧取代人類工作的開始。其他面臨顛覆的行業工作包括律師助理、律師、文案人員、記者和程式設計師。

一方面,人工智慧可以改變人們的學習方式,可能更容易獲得教育和培訓,學習過程更容易一些。但另一方面,大量的人類工作職位也將消失。

根據英國《衛報》報道,教育機構在倫敦和紐約證券交易所出現巨額虧損,凸顯出人工智慧在ChatGPT推出僅6個月後就對一些市場造成了破壞。

技術進步總是導致一些人失業,但人工智慧的發展速度意味著多個產業領域同時面臨快速變化。不可否認,ChatGPT及其底層技術將徹底重塑人們的現代世界。

6、聊天技術成為教育產業面臨的挑戰

用戶可以要求ChatGPT對其文章進行校對,或指出如何改進段落。或者使用者可以把自己其中完全解放出來,讓ChatGPT為其完成所有的寫作。

許多教師已經嘗試過在ChatGPT上佈置作業,並收到了比許多學生做得更好的答案。從撰寫求職信到描述著名文學作品的主要主題,ChatGPT可以毫不猶豫地完成所有任務。

這就引出了一個問題:如果ChatGPT可以為人們寫作,學生將來還需要學習寫作嗎?這似乎是一個存在主義的問題,但當學生開始使用ChatGPT來幫助他們寫論文時,學校必須盡快提供應對措施。

不僅是以英語為基礎的科目有風險,ChatGPT可以幫助人們完成任何涉及腦力激盪、總結或得出明智結論的任務。

毫不奇怪,有些學生已經開始嘗試採用人工智慧。根據《史丹佛日報》報道,早期的調查表明,許多學生使用人工智慧來幫助完成作業和考試。作為回應,一些教育工作者正在重寫課程,以應對使用人工智慧瀏覽課程或考試作弊的學生。

7、ChatGPT可能會造成現實世界的傷害

在發布不久之後,有人試圖破解ChatGPT,導致人工智慧模型可以繞過OpenAI公司的安全護欄,該護欄旨在防止它產生攻擊性和危險的文字。

ChatGPT Reddit上的一群用戶將他們的無限制人工智慧模型命名為DAN,這是「Do Anything Now」的縮寫。可悲的是,做任何喜歡做的事情已經導致駭客增加了網路詐騙。根據Ars Technica的報導,駭客正在出售無規則的ChatGPT服務,這些服務可以創建惡意軟體並產生網路釣魚郵件。

透過人工智慧產生的文本,試圖發現旨在從人們身上提取敏感資訊的網路釣魚電子郵件要困難得多。語法錯誤曾經是一個明顯的危險信號,而現在可能不是了,這因為ChatGPT可以流利地寫各種各樣的文本,從散文到詩歌到電子郵件。

假訊息的傳播也是一個嚴重的問題。 ChatGPT產生文字的規模,再加上讓錯誤訊息聽起來令人信服的能力,使網路上的一切都變得可疑,並加劇了深度偽造技術的危險。

ChatGPT產生資訊的速度已經為Stack Exchange帶來了問題,Stack Exchange是一家致力於為日常問題提供正確答案的網站。在ChatGPT發布後不久,大量用戶要求ChatGPT產生答案。

如果沒有足夠的人類志願者來整理這些訊息,就不可能提供高品質的高品質答案。更不用說,有些答案根本不正確。為了避免網站被破壞,Stack Exchange禁止使用ChatGPT產生所有答案。

8、OpenAI公司具有掌控一切的力量

權力越大,責任越大,而OpenAI公司擁有很大的權力。它是第一批真正用包括Dall-E 2、GPT-3和GPT-4在內的多個產生人工智慧模型的人工智慧開發人員之一。

作為一家私人公司,OpenAI公司選擇用於訓練ChatGPT的數據,並選擇推出新開發項目的速度。因此,有許多專家對人工智慧帶來的危險發出了警告,但幾乎沒有跡象表明這種危險會減緩。

與其相反,ChatGPT的流行刺激了大型科技公司之間的競爭,競相推出下一個大型人工智慧模型;其中包括微軟的必應AI和谷歌的Bard。由於擔心快速發展會導致嚴重的安全問題,世界各地的一些科技領袖聯合簽署了一封信函,要求推遲人工智慧模型的發展。

雖然OpenAI公司認為安全是重中之重,但對於模型本身的工作方式,人們還有很多不知道的地方,無論是好是壞。最終,大多數人可能盲目地相信OpenAI公司將負責任地研究、開發和使用ChatGPT。

無論人們是否同意它的方法,值得記住的是,OpenAI公司是一家私人公司,該公司將根據自己的目標和道德標準繼續開發ChatGPT。

解決人工智慧的最大問題

ChatGPT有很多令人興奮的地方,但除了它的直接用途之外,還有一些嚴重的問題。

OpenAI公司承認,ChatGPT可能會產生有害的、有偏見的答案,他們希望透過收集用戶回饋來緩解這個問題。但即使事實並非如此,它也能產生令人信服的文本,這很容易被壞人利用。

隱私和安全漏洞已經表明,OpenAI公司的系統可能是脆弱的,將用戶的個人資料置於危險之中。更麻煩的是,有些人正在破解ChatGPT,並使用不受限制的版本以前所未有的規模製造惡意軟體和騙局。

對工作的威脅和對教育產業的潛在顛覆是日益嚴重的問題。有了全新的技術,很難預測未來會出現什麼問題,但不幸的是,ChatGPT已經為人們帶來了相當多的挑戰。

以上是OpenAI的ChatGPT帶來的八大問題的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板