研究表明,通用人工智慧工具的廣泛應用為監管機構帶來新的挑戰,他們可能難以應對。實際上,如何監管OpenAI的聊天機器人ChatGPT這樣的生成式AI工具,已經成為一個困擾世界各國政策制定者的問題。
ChatGPT可以透過關鍵字產生任何類型的內容,並接受輸入大量知識的訓練。其解決方案將涉及評估風險,尤其是其中的某些內容,應該受到嚴密的監控。
在ChatGPT推出後的兩個月,這款AI聊天機器人就成為了史上用戶成長最快的消費產品,光是今年1月的活躍用戶就超過1億人。這促使全球大型科技公司關注或加速AI系統的推出,並為對話式AI領域帶來了新的生命。
微軟正在其瀏覽器、搜尋引擎和更廣泛的產品系列中嵌入對話式AI;Google計劃在聊天機器人Bard以及Gmail和Google雲端中的其他整合方面做同樣的事情;百度等其他科技巨頭也正在推出自己的聊天機器人;Jasper和Quora等新創公司也在將生成式AI和對話式AI帶入主流消費者和企業市場…
生成式AI加速監管需求
廣泛的錯誤訊息和難以發現的網路釣魚電子郵件為AI的應用帶來真正風險,如果將其用於醫療訊息,則會導致誤診和醫療事故。如果用於填充模型的不是多樣化的數據,也有很高的偏差風險。
雖然微軟已經有了一個更準確的重新訓練的模型,而且AI21公司等提供商正在努力驗證生成的內容與實時數據的對比,但生成AI“看起來真實但完全不准確”的響應的風險仍然很高。
歐盟內部市場專員Thierry Breton近日表示,即將推出的歐盟AI法案將包括針對ChatGPT和Bard等生成型AI系統的條款。
「正如ChatGPT所展示的那樣,AI解決方案可以為企業和公民提供巨大的機會,但也可能帶來風險。這就是為什麼我們需要一個堅實的監管框架,以確保基於高品質數據的值得信賴的AI。」他說。
AI開發需要合乎道德
分析軟體供應商SAS在一份名為《AI與負責任創新》報告中概述了AI帶來的一些風險。報告的作者Kirk Borne博士說:“AI已經變得如此強大、如此普遍,以至於越來越難以分辨其生成內容的真假和好壞。採用這項技術的速度明顯快於監管的步伐。”
SAS英國和愛爾蘭地區資料科學主管Iain Brown博士表示,政府和產業都有責任確保AI被用於有益而非有害的方面。這包括使用道德框架來指導AI模型的開發,並嚴格治理,以確保這些模型做出公平、透明和公平的決策。我們可以將AI模型與挑戰者模型進行對比,並在新數據可用時進行最佳化。 」
其他專家認為,軟體開發人員將被要求降低軟體所代表的風險,只有風險最高的活動才會面臨更嚴格的監管措施。
美國瑞格律師事務所(Ropes&Gray)資料、隱私和網路安全助理Edward Machin表示,像ChatGPT這樣看似一夜之間出現的技術,其應用速度將快於監管法規,這是不可避免的情況,尤其是在AI這樣已經很難監管的領域。
他表示:儘管對這些技術的監管政策將會出台,監管方法和監管時機仍有待觀察。 AI系統的供應商將會首當其衝,但進口商和分銷商(至少在歐盟)也將承擔潛在的義務。這可能會使一些開源軟體開發者陷入困境。開源開發者和其他下游各方的責任將如何處理,可能會對這些人進行創新和研究的意願產生寒蟬效應。 」
版權、隱私權和GDPR法規
此外Machin認為,除了對AI的整體監管之外,關於其生成內容的版權和隱私也存在問題。例如,目前尚不清楚開發人員是否能夠輕鬆地(如果有的話)處理個人的刪除或更正請求,也不清楚他們如何能夠以一種可能違反第三方網站服務條款的方式從他們的網站抓取大量數據。
在艾倫圖靈研究所從事AI監管工作的紐卡斯爾大學法律、創新和社會專業的教授Lilian Edwards表示,其中一些模型將受到GDPR法規的監管,這可能會導致發布刪除訓練資料甚至演算法本身的命令。如果網站所有者失去了AI搜尋的流量,這也可能意味著從網路大規模抓取資料的終結,目前這種抓取是Google等搜尋引擎的發展動力。
他指出,最大的問題是這些AI模型的通用性質。這使得它們難以根據歐盟AI法案進行監管,該法案是根據面臨的風險起草的,因為很難判斷最終用戶將用這項技術做什麼。歐盟委員會正試圖增加規則來管理這類技術。
加強演算法透明度可能是一種解決方案。 Edwards說:「大型科技公司將開始遊說監管機構,他們說,『你們不能把這些義務強加給我們,因為我們無法想像未來的每一種風險或用途』。有一些處理這個問題的方法對大型科技公司或多或少有幫助,包括讓底層演算法更加透明。我們正處於困難時刻,需要獲得激勵措施朝著開放和透明的方向發展,以便更好地理解AI如何做出決策和生成內容。 」
她也說:「這和人們在使用更無聊的技術時遇到的問題是一樣的,因為科技是全球性的,而居心不良的人無所不在,因此進行監管非常困難。通用AI的行為很難匹配AI法規。」
AI諮詢服務商DragonFly首席技術長Adam Leon Smith表示:「全球監管機構越來越意識到,如果不考慮AI技術的實際使用情況,就很難監管。準確度和偏差要求只能在使用的背景下考慮,在大規模採用之前,也很難考慮到風險、權利和自由要求。」
「監管機構可以強制要求AI技術提供者提供透明度和日誌記錄。然而,只有為特定目的而操作和部署大型語言模型(LLM)系統的使用者才能了解風險,並透過人工監管或持續監控實施緩解措施。」他補充道。
AI監管迫在眉睫
歐盟委員會內部曾經對於AI監管進行了大規模辯論,資料監管機構對此必須認真應對。最終,Leon Smith認為,隨著監管機構越來越關注這一問題,AI提供者將開始列出「不得使用」該技術的目的,包括在用戶登入之前發布法律免責聲明,將其置於基於風險的監理行動範圍之外。
Leon Smith稱,目前管理AI系統的最佳實踐幾乎沒有涉及大型語言模型,這是一個發展極其迅速的新興領域。而在這個領域有很多工作要做,很多公司提供這些技術並沒有幫助定義它們。
OpenAI首席技術長Mira Muratti也稱,生成式AI工具需要受到監管,「對於我們這樣的公司來說,以一種可控和負責任的方式讓公眾意識到這一點很重要」但她也表示,除了監管AI供應商之外,還需要對AI系統進行更多的投入,包括來自監管機構和政府的投入。 ”
以上是如何監管像ChatGPT和Bard這樣的生成式AI機器人?的詳細內容。更多資訊請關注PHP中文網其他相關文章!