就歷經三天的「馬拉松式」談判圓滿結束,理事會主席與談判代表剛剛就人工智慧協調規則達成協議,預計最終將成為《人工智慧監管的人工智慧法案》 。該法規草案的重點是提供一個合規框架,優先考慮在歐盟部署安全和尊重人權的人工智慧系統。這項人工智慧法規超越了歐洲國家在人工智慧領域投資和創新的靈感。
《人工智慧法案》是一項具有里程碑意義的立法,它可以創造一個有利的環境,在這種環境中,人工智慧的使用將成為一種更優秀的安全和信任的工具,確保整個歐盟的公共和私人機構利益相關者的參與。其主要想法是,根據人工智慧對社會造成傷害的能力,遵循「基於風險」的方法來監管人工智慧:風險的危害程度越高,需要做出的限制就越多。這部法律為其他司法管轄區的人工智慧監管建立了一個全球先例。相較之下,GDPR以同樣的方式在保護個人資料方面取得了這一點,因此在全球範圍內推廣了歐盟的技術監管方式。
與歐盟委員會的初步提案相比,人工智慧監管臨時協議的主要新內容可以總結如下:
更具體地,臨時協定包括以下方面:
根據選擇協議,試圖選擇經合組織庇護所的人工智慧系統的定義與建議的程序相對應。這樣,人工智慧系統的標準有助於更清楚地區分簡單的軟體系統。
此外,臨時協議更詳細地解釋了該條例的規則不包括屬於歐盟法律領域的部門,不能以任何方式削弱成員國在國家安全領域或在國家安全領域分擔責任的各方的能力。不僅如此,《人工智慧法案》也不會擴展到僅用於軍事或國防目的的人工智慧系統。同時,該條約也指出,人工智慧系統不僅用於科學和研究目的,而且用於非科學和非創新原因,包括非人工智慧技術人員或專家的情況下,法律應適用於人工智慧系統。
#它創建了一個橫向安全屏障,其中包括1.1級"可能的嚴重/重大權利損害",以排除未預測會造成這種威脅的人工智慧系統。那些對使用者有輕微傷害風險的人工智慧系統將具有最低的透明度要求。例如,其應該通知用戶內容是人工智慧生成的,這樣就可以決定是否使用該內容或執行進一步的操作。
將批准在歐盟領土上運行的各種基於人工智慧的系統。然而,必須滿足進入歐盟市場的要求和責任。這些共同立法委員增加和修訂了一些規定,使其在技術上更簡單明了,減輕了利益相關者的負擔,例如,關於數據品質的供應,以及中小企業需要編寫的技術文件,以證明其人工智慧系統已安全建置並符合現行規定。
由於人工智慧系統是在要求苛刻的價值鏈環境中創建和提供的,因此折衷安排將要求除其他外,對企業的行為進行修訂,以反映對該鏈中各種行為者(即該技術系統的提供者和使用者)的責任/影響範圍的澄清。它還闡明了《人工智慧法案》中衍生的人工智慧特定義務如何相互作用,並與其他法律中規定的義務發生衝突,例如歐盟的資料立法和部門立法。
人工智慧的應用將會因為高風險而被拒絕,這對人工智慧的某些用途是被禁止的。因此,這些設備將不會被引入歐盟。根據初步協議,禁止的行為包括行為控制的認知技術、從網路上無目的地收集臉部圖像等、機構和教育中的情感識別、社會評分、用於確定性取向或宗教信仰的生物識別方法,以及用於警務目的的一些個人家譜。
考慮到執法組織的特殊性和其在履行職責時使用電腦的必要性,對委員會關於執法的規則AI的建議作出了若干修改,這是至關重要的。只要製定了謹慎的措施,這些變革就會轉化為營運商保護資訊隱私的必要性。這方面的一個例子是啟動高風險人工智慧實施的緊急程序,但不包括在緊急情況下進行符合性評估。除此之外,還制定了一項具體行動,為保障人權,防止濫用人工智慧申請提供權限。
此外,臨時協議的案文明確表達了在公共場所使用實時遠程生物鑑別識別系統的原因,但僅出於執法原因,只有在例外情況下才允許當局這樣做。折衷協定規定了額外的保障措施,並將這些例外情況限於殺害犯罪嫌疑人的案件,確保只有在真正威脅的情況下才進行搜查,以及在人們涉嫌犯下最嚴重罪行時才防止恐怖襲擊和搜查。
對於人工智慧系統用於多種目的的場景,即通用人工智慧和獨立系統,制定了新的規定。另一個高風險系統,即自行駕駛汽車,與通用人工智慧整合。 《過渡協定》也包括GPA(GPAI)。 GPA監管是協議的核心部分。
基礎模型被描述為能夠在複雜活動中表現出能力的系統,如文字生成、視訊分割、處理自然語言、渲染程式碼和許多更多的電腦任務,也已經得出結論。臨時安排要求基本模型在上市前滿足去污染要求。建立"高影響"基礎模型所需的政策要嚴格得多。這些具有巨大規模和非常先進的複雜性、能力和性能的平均資料模型可以在企業的價值鏈中帶來系統性風險;所有參與企業都可以分擔這些風險。
根據新的GPAI模式的限制措施及其在歐盟層級的標準化監測的必要性,委員會設立了一個獨特的人工智慧辦公室,負責監督這些最先進的人工智慧模式,促進建立規範和測試程序,並在所有成員國執行主要規則。一個獨立的技術專家科學小組將就模型規模向GPAIAI辦公室提供諮詢意見,方法是製定評估基礎模型和技術力量的方法,對準備上市的GPAI狀態和基礎模型進行評估,並可能監測與基礎模型有關的材料的安全性。
為此目的,由成員國組成的人工智慧委員會作為其成員,並作為委員會的協調平台和諮詢機構,應在其領域內使成員國在實施條例方面發揮突出和關鍵的作用,將其作為基礎模式的業務守則。最後但並非最不重要的是,將建立一個論壇,由行業參與者、中小型企業、初創企業、公民社會和大學代表個人利益相關者。這可以提供人工智慧委員會可以使用的技術知識。
對違反《人工智慧法》的企業進行對接和製裁,罰款金額最低為一定金額,最高可達一財政年度全球年營業額的百分比。違反上述人工智慧應用將被處以3500萬歐元(7%)的罰款,違反《人工智慧法》義務將被處以1500萬歐元(3%)的罰款,提供誤導性資訊將被處以750萬歐元(1.5 %)的罰款。儘管如此,該臨時協議包括特殊罰款,當中小企業和新創公司承諾遵守人工智慧法案的規定時,這些罰款對其影響較小。
與《人工智慧法》的簡明協議規定,自然人或法人有權向相關市場監督實體提出正式投訴。此外,該機構在處理上述投訴時應遵循其特定和規定的程序。
值得注意的是,臨時協定要求人工智慧系統部署人員在將高風險系統投放市場之前,對終端使用者的保障措施進行權利影響評估。這項臨時協議也為廣泛使用複雜的人工智慧和自動真相檢測系統提供了一個很好的起點。其將使該系統的實施範圍清晰。值得注意的是,擬議委員會的一些規定已經修改,參考了高風險人工智慧系統的各種偶爾的政府用戶,這些用戶也在歐盟資料庫中註冊了高風險人工智慧機器學習系統。除此之外,更新後的產品線還會向操作情緒辨識系統的使用者發送訊息,告知何時接觸到該系統。
這一部分的規定受到了重大修改,鼓勵創新,這是委員會提議建立一個更加科學的創新框架的一個重要方面,該框架不斷適應,以確保在整個歐盟範圍內建立可持續的監管環境。
應要求人工智慧監管沙箱,旨在確保開發、測試和驗證新人工智慧系統的控制環境,也允許在真實情況下測試機構。此外,在人工智慧系統在現實環境中進行測試的情況下,已經啟用了新的限制,以便在特定條件下使用系統。這項臨時協議是為了減輕中小企業的行政負擔,制定了收入低的中小企業支援方案。在這種情況下,如果克減受到合法限制和嚴格具體,則允許克減。
《人工智慧管理臨時協議》規定,除某些例外情況外,《人工智慧法》的規定自自生效日起適用2年。
以上是探討歐盟就人工智慧監管達成協議的詳細內容。更多資訊請關注PHP中文網其他相關文章!