인공 지능 법안은 인공 지능의 개발 방법, 회사에서 사용할 수 있는 용도, 요구 사항을 준수하지 않을 경우의 법적 결과 등 인공 지능 사용에 대한 공통 규제 및 법적 프레임워크를 만드는 것을 목표로 합니다. 이 법안은 기업이 인공 지능을 채택하기 전에 특정 상황에서 승인을 얻도록 요구하고, 너무 위험하다고 간주되는 인공 지능의 특정 사용을 금지하고, 기타 고위험 인공 지능 사용에 대한 공개 목록을 만들도록 요구할 수 있습니다.
법에 대한 공식 보고서에서 유럽 위원회는 광범위한 수준에서 이 법이 EU의 신뢰할 수 있는 인공 지능 패러다임을 성문화하려고 한다고 밝혔습니다. 이 패러다임은 “AI가 민주적 가치, 인권 및 법치를 존중하면서 법적, 윤리적, 기술적으로 강력해야 함”을 요구합니다.
1. EU 시장에 배포 및 사용되는 인공 지능 시스템이 안전하고 기존 법적 기본권과 EU 가치를 존중하는지 확인합니다.
2. 인공 지능에 대한 투자와 혁신을 촉진합니다.
3. AI 시스템에 적용되는 기본 권리 및 보안에 대한 기존 법률의 효과적인 집행을 강화합니다.
4. 합법적이고 안전하며 신뢰할 수 있는 인공 지능 애플리케이션 시장 개발을 촉진합니다. 시장 차별화를 막는다.
새로운 법률의 많은 세부 사항이 아직 공개되지 않았지만 핵심 요소는 AI의 정의이지만 핵심 요소는 미래의 AI 제품을 모든 산업에 적용할 수 있는 4가지 보안 수준 범주로 나누는 "제품 보안 프레임워크"인 것으로 보입니다.
스탠포드-비엔나 대서양 횡단 기술법 포럼의 Maruritz Kop이 편집한 새로운 법률에 대한 2021년 유럽 위원회 보고서에 따르면 "임계 피라미드"의 맨 아래가 가장 위험도가 낮은 시스템입니다. 이 범주에 속하는 AI 애플리케이션은 더 위험한 시스템이 통과해야 하는 투명성 요구 사항을 준수할 필요가 없습니다. "제한된 위험" 범주에는 챗봇과 같은 AI 시스템에 대한 몇 가지 투명성 요구 사항이 있습니다.
——EU의 새로운 AI 법안은 AI 프로그램을 낮은 위험, 제한된 위험, 높은 위험, 허용할 수 없는 위험의 네 가지 범주로 분류합니다.
투명성 요구사항이 엄격한 고위험 AI 카테고리에서는 감독이 더욱 엄격해집니다. 서문에 따르면 고위험 범주에는 다음 분야의 AI 애플리케이션이 포함됩니다.
더 높은 위험 범주는 투명성과 규정 준수를 보장하려는 많은 기업의 노력의 초점이 될 가능성이 높습니다. EU의 인공 지능 법안은 기업들이 고위험 범주에 속하는 AI 제품이나 서비스를 출시하기 전에 4가지 단계를 수행하도록 권고합니다.
AI 영향 평가와 포괄적이고 다양한 분야의 팀이 감독하는 행동 강령을 사용하여 가급적이면 사내에서 고위험 AI 시스템을 개발하세요.위 내용은 유럽의 인공지능 법안이 곧 제출될 예정이며, 이는 글로벌 기술 규제에 영향을 미칠 수 있음의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!