自從 2022 年底 ChatGPT 發表以來,網路上充斥著各種或悲觀、或樂觀的情緒。不管你是喜歡還是討厭,人工智慧都會進入你的開發團隊。即使你不打算開發人工智慧產品或採用人工智慧開發機器人為寫程式碼,它仍然可能被整合到用於建置、測試和運行你的手動編寫原始程式碼的工具和平台中。
人工智慧工具會帶來與眾不同的風險。而且,這些風險可能會抵消自動化曾經需要人類大腦執行的任務所帶來的巨大的生產力效益。這些風險來自於人工智慧的訓練、建置、託管和使用方式,所有這些都與開發者目前使用的其他軟體工具不同。了解風險是管理風險的第一步,為了幫助你了解即將到來的人工智慧工具相關的潛在風險,我們編寫了一些面試問題,可以算作人工智慧入職考察過程的一部分。
無論人工智慧的類型或希望利用其達成的目的為何,都應該問這些問題。
1. 你將選用的人工智慧的伺服器在哪裡託管?
現代人工智慧目前需要專用、昂貴的硬體來完成我們今天看到的頭條新聞中的驚人任務。除非你打算收購一個全新的資料中心,否則你的人工智慧機器人將遠端工作,並需要與使用遠端存取和異地資料儲存的遠端人類工作者一樣的安全考慮。
當程式碼離開邊界時,有什麼樣的保護措施來防止 IP 遺失?從智慧電視到汽車的一切都在向製造商報告使用數據。有些人正在使用這些數據來改進他們的軟體,但其他人正在將其出售給廣告商。準確了解你的人工智慧工具將如何使用或處理原始程式碼或其他用於其主要任務的私人資料。
2. 你的輸入是否會被用於人工智慧的未來訓練?
人工智慧模型的持續訓練將是所有者和那些資料被用於訓練模型的人越來越關注的領域。例如,業主可能希望防止廣告主將人工智慧機器人偏向有利於其客戶的方向。在網路上分享作品的藝術家已經讓人工智慧圖像生成機器人複製了他們的風格,他們非常擔心其原始作者的身份喪失或被盜。
3. 結果的準確性如何?
ChatGPT 最著名的缺點就是其結果的不準確性。它會自信地把虛假的東西斷言為真理。這被稱為人工智慧的 「幻覺」。了解人工智慧可能產生幻覺的方式和地點,可以在它產生幻覺時幫助管理它。
除此之外,人工智慧所有者和開發者將有自己的一系列安全問題。這些新的擔憂包括對人工智慧訓練模型的威脅。這些威脅可能會破壞其結果或揭露有關模型如何運作的專有資訊。此外,人工智慧模型將不得不與 API、網路、行動和其他需要安全建置的應用程式對接。
開發人員在使用人工智慧工具(如人工智慧安全掃描器)管理軟體開發過程中引入的風險時,將不得不提出具體問題。
4. 人工智慧工具是否最適合這個用例?
了解人工智慧擅長什麼和不擅長什麼是關鍵。一項任務可以進一步分解為“根據學習到的規則做出決定 ”或 “編寫通過學習到的規則的內容”,而人工智慧在這方面會做得越好。問題偏離越遠,人工智慧的表現就越差。
如果工具沒有捕捉到內容或產生了不存在的幻覺,有什麼保障措施?
永遠不要在你的流程中引入單點故障,特別是一個可以產生幻覺的故障。依靠傳統的縱深防禦做法或管理風險的「瑞士起司」方法,在這種方法中,即使一層錯過了問題,下一層也會抓住它。
審查工具結果需要什麼來監督?這個問題其實不過是新瓶裝舊酒:傳統的日誌指引分成兩部分。第一部分是捕捉重要事件的數據,第二部分是審核日誌。在人工智慧進一步成熟,並且其缺點被理解或緩解之前,人類在工作流程中仍然是不可或缺的。
越來越多的開發者正在「僱用」 ChatGPT 來編寫原始程式碼。初步報告顯示,ChatGPT 能夠用許多程式語言編寫原始程式碼,並且能流利地使用所有常見的和公開討論的語言。但由於這個測試版的訓練和模型的限制,它產生的程式碼並不總是完美的。通常,它包含可能改變軟體操作方式的業務邏輯缺陷,可能會融合不同版本軟體的語法錯誤,以及其他看似人為的問題。換句話說,ChatGPT 是一個初級開發人員。當使用這個初級開發人員編寫的程式碼時,必須考慮如何管理它。
誰會成為它的管理者,並確保程式碼具備功能性、可優化、高品質,而且還能達到安全標準?初級開發人員需要高級開發人員指導。每一行程式碼都要進行測試,有些還要修正。然而,初步報告顯示,這種校對過程比從頭開始寫程式碼更快、更容易。
5. 它是在你的程式碼庫中註入或重新混合訓練程式碼嗎?
一個更隱密的威脅是,有時像 GitHub Copilot 這樣的人工智慧機器人產生的原始程式碼會完全複製其訓練資料中的程式碼區塊。這需要反剽竊工具來確保版權風險得到管理。
6. 機器人從哪裡取得其訓練資料?
人工智慧模型的優劣取決於其訓練資料。如果機器人是透過陳舊或不正確的程式碼進行訓練,它也將生產出陳舊的和不正確的結果。
7. 引擎託管在哪裡?
同樣,分析原始碼的人工智慧機器人將需要把原始程式碼帶到其處理設施。要格外考慮資料在離開你折公司後,是如何被保護、使用和處理的。
12 月發表的 ChatGPT 預示著軟體開發的一個新時代。重要的是要適應這些變化,而不是被它們打倒在地。在採用這些新工具時,要明白事物變化越大,有一條原則就越是保持不變:防止安全事件發生總比被安全事件打翻在地要好。
#來源:www.cio.com
#以上是人工智慧如何在2023年為組織賦能的詳細內容。更多資訊請關注PHP中文網其他相關文章!