AI 위험 문제에 관해서는 각계각층의 거물들도 서로 다른 의견을 가지고 있습니다. 딥러닝의 3대 거물인 제프리 힌튼(Geoffrey Hinton), 요슈아 벤지오(Yoshua Bengio) 등도 AI 연구소에 연구를 즉시 중단할 것을 촉구하는 공동 서한에 서명하는 데 앞장섰습니다.
최근 며칠 동안 Bengio, Hinton 등은 "급속한 개발 시대의 인공 지능 위험 관리"라는 공동 서한을 발행하여 연구원들에게 AI 시스템을 개발하기 전에 긴급 거버넌스 조치를 취하고 안전 및 윤리를 구현할 것을 촉구했습니다. 핵심 사항을 설명하고 정부가 AI로 인한 위험을 관리하기 위한 조치를 취할 것을 촉구합니다.
기사에서는 AI 남용을 방지하기 위해 국가 기관을 참여시키는 등 긴급 거버넌스 조치를 언급했습니다. 효과적인 규제를 달성하려면 정부는 AI 개발을 포괄적으로 이해해야 합니다. 규제기관은 모델 등록, 내부고발자의 효과적인 보호, 모델 개발 및 슈퍼컴퓨터 사용 모니터링 등 일련의 조치를 취해야 합니다. 또한 규제 기관은 위험한 기능을 평가하기 위해 배포하기 전에 고급 AI 시스템에 액세스해야 합니다.
올해 5월, 미국의 비영리단체인 인공지능안전센터(Centre for the Safety of Artificial Intelligence)는 인공지능을 전염병처럼 인류에 대한 멸종 위험으로 보아야 한다고 경고하는 성명을 발표했습니다. 이 성명은 Hinton과 Bengio를 포함한 일부 사람들이 지지했습니다. 그뿐만 아니라 좀 더 거슬러 올라가 올해 5월 미국의 비영리단체인 인공지능보안센터는 인공지능도 인류를 멸망시킬 위험이 있는 것으로 간주해야 한다고 경고하는 성명을 발표했습니다. 전염병으로서, 그리고 이 성명을 지지한 사람들과 함께 Hinton, Bengio 및 기타
Hinton은 인공 지능이 가져오는 위험에 대해 자유롭게 논의할 수 있도록 올해 5월 Google에서 사임했습니다. 그는 뉴욕타임스와의 인터뷰에서 "대부분의 사람들은 인공지능의 폐해가 아직 멀었다고 생각한다. 나도 예전에 그렇게 생각했는데 30~50년, 그 이상이 걸릴 수도 있다. 하지만 지금은 내 사고가 바뀌었다”
힌튼과 같은 AI 거물들의 관점에서는 인공지능이 가져온 위험을 관리하는 것이 시급한 과제
그러나 Yann LeCun은 심층 분야의 중요한 인물 중 하나입니다. 학습, 인공 지능의 발전에 대해 낙관하십시오. 그는 인공지능의 위험성에 대한 공동 서한에 서명하는 데 반대하며 인공지능의 발전이 인류에게 위협이 되지 않는다고 믿습니다
방금 X 사용자들과의 대화에서 르쿤은 일부 네티즌들에게 다음과 같이 질문했습니다. AI Answer의 위험성이 주어졌습니다. ㅋㅋㅋ 이로 인해 사람들은 AI에 대한 관점을 처음에는 보조 보조자로 보던 것에서 AI를 잠재적인 위협으로 보는 것으로 바꾸게 되었습니다. 기사는 계속해서 최근 몇 달 동안 관찰자들이 영국에서 AI가 세상의 종말을 초래할 것이라는 정서가 높아지고 있음을 감지했다고 말합니다. 올해 3월 영국 정부는 AI 분야 혁신을 억누르지 않겠다고 약속한 백서를 발표했다. 그러나 불과 두 달 뒤, 영국은 AI에 가드레일을 두는 것에 대해 이야기하고 미국이 글로벌 AI 규칙에 대한 계획을 수용할 것을 촉구하고 있습니다.
기사 링크: https://www.telegraph.co.uk/business/2023/09/23/Helios Artificial Intelligence Security Summit: Sunak and AI Experts/ (참고: 제공된 내용은 이미 중국어로 되어 있습니다. 따라서 다시 작성할 필요가 없습니다.)
이 기사에 대한 LeCun의 반응은 AI의 치명적인 위험에 대한 영국의 우려가 다른 곳으로 확산되는 것을 원하지 않는다는 것입니다.
이후 앞서 언급한 LeCun과 X 사용자 간의 커뮤니케이션이 있었습니다. LeCun의 답변은 모두 다음과 같습니다.
"Altman, Hassabis 및 Amodei는 대규모 기업 로비에 참여하고 있습니다. 그리고 당신과 Geoff, Yoshua는 개방형 AI 연구를 금지하기 위해 로비하는 사람들에게 탄약을 제공하고 있습니다
당신의 공포 캠페인이 성공한다면 그것은 필연적으로 당신에게로 이어질 것이라고 생각합니다. 재난의 결과: 소수의 기업이 인공지능을 통제하게 된다
대부분의 학계 동료들은 개방형 AI 연구 및 개발을 매우 지지합니다. 당신이 홍보하는 종말 시나리오를 믿는 사람은 거의 없습니다. 당신, 요슈아, 제프, 스튜어트는 유일한 예외입니다.
많은 사람들과 마찬가지로 저는 개방형 AI 플랫폼의 열렬한 지지자입니다. 사람들의 창의성, 민주주의, 시장 강점, 제품 규제 등 다양한 힘을 통합하는 것이 중요하다고 믿기 때문입니다. 또한 우리는 안전하고 통제할 수 있는 AI 시스템을 생산할 수 있는 능력이 있다는 것도 배웠습니다. 저는 사람들이 올바른 결정을 내리도록 유도할 수 있는 구체적인 제안을 했습니다.
귀하의 글은 AI가 자연스러운 현상이며 우리가 AI의 개발을 통제할 수 없다는 느낌을 줍니다. 그러나 실제로는 그렇지 않습니다. AI가 발전할 수 있는 이유는 인류사회의 모두가 있기 때문이다. 우리 각자는 올바른 것을 창조할 수 있는 힘을 가지고 있습니다. R&D 규제를 요구하는 것은 사실상 이러한 사람들과 그들이 일하는 조직이 무능하고, 무모하고, 자기 파괴적이거나 사악하다고 가정하는 것입니다. 하지만 그렇지 않습니다
저는 여러분이 두려워하는 종말 시나리오가 터무니없다는 것을 증명하기 위해 많은 주장을 생각해냈습니다. 여기서는 자세히 다루지 않겠습니다. 그러나 중요한 점은 강력한 AI 시스템이 가드레일을 포함한 목표에 의해 구동된다면 이러한 가드레일과 목표를 설정하기 때문에 안전하고 제어 가능하다는 것입니다. (현재 자동 회귀 LLM은 목표 중심이 아니므로 자동 회귀 LLM의 약점을 추정하지 말자)
오픈 소스의 특징은 귀하의 활동이 귀하가 추구하는 것과 정반대의 효과를 갖는다는 것입니다. 미래에 AI 시스템은 인류의 모든 지식과 문화의 보고가 될 것입니다. 우리에게 필요한 것은 모두가 기여할 수 있는 오픈 소스와 무료 플랫폼입니다. 개방성은 AI 플랫폼이 인류의 모든 지식과 문화를 반영할 수 있는 유일한 방법입니다. 이를 위해서는 Wikipedia와 마찬가지로 이러한 플랫폼에 대한 기여가 크라우드소싱되어야 합니다. 플랫폼이 열려 있지 않으면 작동하지 않습니다.
오픈소스 AI 플랫폼이 규제된다면 소수의 회사가 AI 플랫폼을 통제하여 모든 사람들의 디지털 의존성을 통제하게 되는 또 다른 상황이 발생할 것입니다. 이것이 민주주의에 무엇을 의미하는가? 문화다양성은 무엇을 의미하는가? 이것이 나를 밤새도록 잠 못 이루게 하는 것입니다
LeCun의 트윗에 많은 사람들이 그의 견해에 대한 지지를 표명했습니다.
몬트리올 대학교 컴퓨터 과학 및 운영 연구과 교수 Irina Rish와 Mila - AI 연구소의 퀘벡 코어 회원. 그녀는 아마도 오픈소스 AI를 지지하는 연구자들이 더 이상 침묵하지 말고 신흥 AI 개발을 주도해야 한다고 말했습니다.
e/acc 창립자 Beff Jezos도 댓글 영역에서 그러한 댓글이 중요하며 사람들에게 필요한 것이라고 말했습니다.
네티즌들은 처음에는 보안 문제를 논의하는 것이 모든 사람의 미래 기술에 대한 상상력을 풍부하게 할 수 있지만 선정적인 SF 소설이 독점 정책의 출현으로 이어져서는 안 된다고 말했습니다.
팟캐스트 진행자 Lex Fridman은 이 토론에서 더 많은 것을 기대할 수 있습니다.
AI 위험에 대한 논의는 AI의 향후 발전에도 영향을 미칠 것입니다. 어떤 아이디어가 주목을 받으면 사람들은 그것을 맹목적으로 따릅니다. 양측이 지속적으로 합리적인 논의를 진행할 때에만 AI의 '진짜 얼굴'이 진정으로 보일 수 있습니다.
위 내용은 튜링상 수상자 주장 르쿤: 벤지오·힌튼 등 AI 멸종설은 황당하다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!