9 月20 日消息,美國人工智慧研究公司OpenAI 宣布推出“紅隊網路”(Red Teaming Network),並邀請各領域專家加入其“紅隊網路”,以提高其人工智慧(AI)模型的安全性。
OpenAI 的這項舉措旨在深化和擴大其與外部專家的合作,以確保其人工智慧模型的可靠性和安全性。簽約的專家將透過協助評估和減輕模型風險,在增強 OpenAI 人工智慧系統的穩健性方面發揮關鍵作用。
儘管 OpenAI 先前透過漏洞賞金計畫和研究人員存取計畫與外部專家合作,但新推出的「紅隊網路」將這些努力正式化。
OpenAI 表示,"紅隊網絡"是一個由經驗豐富且值得信賴的專家組成的社區,可以幫助公司更廣泛地進行風險評估,而不是在主要模型部署之前進行一次性參與和選擇過程
據報道,"紅隊"在識別人工智慧系統中的偏見和評估安全過濾器方面扮演著至關重要的角色,已經成為人工智慧模型開發過程中的關鍵一環,尤其是在生成式技術更廣泛應用的情況下
OpenAI邀請了來自不同領域的專家,包括語言學、生物辨識、金融和醫療保健等背景的專家。該公司強調了各種專業知識對人工智慧評估的重要性,涵蓋了認知科學、法律、網路安全、經濟學和醫療保健等領域
廣告聲明:文內含有的對外跳轉連結(包括不限於超連結、二維碼、口令等形式),用於傳遞更多訊息,節省甄選時間,結果僅供參考,本站所有文章均包含本聲明。
以上是OpenAI 宣布推出「紅隊網路」並邀請各領域專家加入,旨在提高其 AI 模型安全性的詳細內容。更多資訊請關注PHP中文網其他相關文章!