> 기술 주변기기 > 일체 포함 > 인공지능이 따라야 할 윤리 원칙은 무엇인가?

인공지능이 따라야 할 윤리 원칙은 무엇인가?

WBOY
풀어 주다: 2023-05-17 12:13:05
앞으로
2144명이 탐색했습니다.

데이터 과학이 점점 더 정교해지고 소비자가 점점 더 개인화된 고객 경험을 요구함에 따라 인공 지능은 기업이 고객과 청중을 더 잘 이해하는 데 도움이 되는 도구입니다. 그러나 AI가 전 세계의 모든 잠재력을 갖고 있더라도 남아 있는 윤리적 문제를 해결하는 방법을 찾지 못한다면 그 잠재력은 결코 실현되지 않을 수 있습니다.

인공지능이 따라야 할 윤리 원칙은 무엇인가?

이 기술이 발전함에 따라 AI 전략을 구현하려는 모든 리더가 명심해야 할 한 가지 질문은 윤리적이고 책임감 있게 기업 내에서 AI 사용을 극대화하는 방법입니다.

위험을 최소화하고 편견을 줄이며 AI 가치를 창출하는 동시에 긍정적인 ROI를 제공하는 AI 기능을 구현하고 확장하려면 기업은 다음 네 가지 원칙을 따라야 합니다.

1. 목표, 목표 및 위험 이해

약 7년 전, 한 조직은 향후 10년 동안 사회와 비즈니스를 변화시킬 기술을 예측하는 "신흥 기술에 대한 하이프 사이클"이라는 것을 발표했습니다. 인공지능도 이러한 기술 중 하나입니다.

이 보고서가 공개되면서 기업은 분석가와 투자자에게 자신이 인공지능에 능숙하다는 사실을 서둘러 증명하게 되었고, 많은 기업이 인공지능 전략을 비즈니스 모델에 적용하기 시작했습니다. 그러나 때로는 이러한 전략이 제대로 실행되지 않고 기존 분석이나 수치 목표에 대한 사후 고려에 불과한 것으로 판명되기도 합니다. 이는 기업이 AI를 통해 해결하려는 비즈니스 문제를 명확하게 이해하지 못하기 때문입니다.

기업에서 개발한 AI 및 ML 모델 중 10%만 구현됩니다. AI는 문제가 있는 기업과 AI를 사용하여 문제를 해결할 수 있는 데이터 과학자 사이의 역사적인 단절에 뒤처져 있습니다. 그러나 데이터 성숙도가 높아짐에 따라 기업은 데이터 변환기를 마케팅 비즈니스 요구 사항과 같은 다양한 가치 사슬에 통합하여 결과를 발견하고 변환하기 시작했습니다.

그렇기 때문에 윤리적인 AI 전략을 개발하는 첫 번째 원칙은 모든 목표, 목표 및 위험을 이해한 다음 기업 내에서 AI에 대한 분산형 접근 방식을 만드는 것입니다.

2. 편견 문제 해결

편향 문제를 해결하기 위한 AI 솔루션이 제대로 개발된 적이 없기 때문에 크고 작은 기업의 평판이 훼손되었고 고객은 이를 불신하게 되었습니다. 따라서 AI 모델을 만드는 기업은 자사의 솔루션이 피해를 입히지 않도록 선제적인 조치를 취해야 합니다. 이를 수행하는 방법은 알고리즘 예측에 부정적인 영향을 방지하는 프레임워크를 만드는 것입니다.

예를 들어, 기업이 설문조사를 사용하여 소수 집단이 서비스를 어떻게 보는지 등 고객 감정을 더 잘 이해하려는 경우 데이터 과학을 사용하여 이러한 고객 설문조사를 분석하고 설문조사에서 특정 비율의 응답을 인식할 수 있습니다. AI 알고리즘이 이해할 수 있는 유일한 언어인 영어가 아닌 다른 언어로 되어 있었습니다.

이 문제를 해결하기 위해 데이터 과학자는 알고리즘을 수정할 수 있을 뿐만 아니라 언어의 복잡한 뉘앙스를 통합할 수도 있습니다. 언어의 이러한 뉘앙스를 이해할 수 있고 AI가 보다 유창한 언어와 결합되어 이러한 결론을 보다 실행 가능하게 만든다면 기업은 소외된 커뮤니티의 요구 사항을 이해하여 고객 경험을 개선할 수 있을 것입니다.

3. 광범위한 기본 데이터 개발

AI 알고리즘은 대규모 데이터 세트를 분석할 수 있으므로 기업은 AI 모델에서 사용하고 수집하는 데이터 표준에 대한 프레임워크 개발을 우선적으로 수행해야 합니다. AI가 성공하려면 전체적이고 투명하며 추적 가능한 데이터 세트가 필수적입니다.

인공지능은 인간의 간섭을 고려해야 합니다. 인간이 지속적인 진화를 바탕으로 개발한 속어, 약어, 코드 단어 등 다양한 단어는 고도로 기술적인 인공 지능 알고리즘을 잘못 작동시킬 수 있습니다. 이러한 인간의 미묘한 차이를 처리할 수 없는 AI 모델에는 결국 전체적인 데이터 세트가 부족하게 됩니다. 이는 백미러 없이 운전하려고 하는 것과 같습니다. 필요한 정보가 있지만 중요한 사각지대를 놓치고 있는 것입니다.

AI 모델이 이러한 복잡한 차이점을 이해하려면 기업은 과거 데이터와 인간 개입 사이의 균형을 찾아야 합니다. 구조화된 데이터와 구조화되지 않은 데이터를 결합하고 AI가 두 가지를 모두 인식하도록 교육하면 보다 포괄적인 데이터 세트를 생성하고 예측의 정확성을 높일 수 있습니다. 또한 데이터 세트에 대한 제3자 감사는 편견과 불일치가 없는 추가적인 이점이 될 수 있습니다.

4. 알고리즘 개발에 대한 "블랙박스" 접근 방식을 피하세요.

AI가 윤리적이 되려면 완전한 투명성이 필요합니다. 투명하고 설명 가능하며 동시에 설명 가능한 AI 전략을 개발하려면 기업은 코드의 "블랙박스"를 열어 알고리즘의 각 노드가 결론에 도달하고 결과를 해석하는 방법을 이해해야 합니다.

간단해 보이지만 이를 달성하려면 기본 코드를 보고 생성되는 다양한 하위 예측을 보여줌으로써 모델 및 알고리즘 동작을 설명할 수 있는 강력한 기술 프레임워크가 필요합니다.

기업은 오픈 소스 프레임워크를 사용하여 다음을 포함한 여러 차원에서 AI 및 ML 모델을 평가할 수 있습니다.

  • 기능 분석: 기존 모델에 새로운 기능을 적용할 때의 영향을 평가합니다.
  • 노드 분석: 예측의 하위 집합을 설명합니다.
  • 로컬 분석: 개별 예측 및 매칭 기능을 해석하여 결과 개선
  • 글로벌 분석: 전체 모델 동작 및 주요 기능에 대한 하향식 검토 제공

인공지능은 복잡한 기술입니다. 조심하지 않으면 잠재적인 함정에 빠질 수 있습니다. 성공적인 AI 모델은 처음부터 윤리적 문제를 우선시해야 하며 나중에 고려해서는 안 됩니다. 산업과 비즈니스 전반에 걸쳐 AI가 모든 경우에 적용되는 것은 아니지만 혁신으로 이어져야 하는 공통 스레드 중 하나는 투명하고 편견 없는 예측에 대한 약속입니다.


위 내용은 인공지능이 따라야 할 윤리 원칙은 무엇인가?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿