전 구글 CEO 에릭 슈미트는 인터뷰에서 인공지능을 핵무기에 비유하며 세계 최강국들이 AI 때문에 서로를 파괴하는 것을 막기 위해 유사한 상호 보장 파괴 억제 메커니즘을 요구했습니다.
Mutually Assured Destruction(M.A.D. 줄여서 상호 파괴의 원리라고도 함)은 "모두 파괴되는" 자연에 대한 아이디어입니다. 두 반대자 중 한 쪽이 이를 완전히 사용하면 양쪽 모두가 파괴되는데, 이를 '테러 균형'이라고 합니다.
슈미트는 AI를 핵무기에 비유하며 AI가 세계를 파괴하는 것을 막기 위해 중국과 미국이 앞으로 '핵실험' 금지와 유사한 조약을 체결할 수도 있다고 말했습니다.
슈미트는 7월 22일 아스펜 보안 포럼 국가 안보 및 인공 지능 패널 회의에서 인공 지능 개발에 관해 연설했습니다.
기술의 윤리적 가치에 대한 질문에 슈미트는 자신이 구글 초창기 정보의 힘에 대해 순진했다고 설명했습니다.
그런 다음 그는 기술이 서비스를 받는 사람들의 도덕과 윤리에 더 잘 부합할 것을 촉구하고 인공 지능과 핵무기를 기괴하게 비교했습니다.
슈미트는 가까운 미래에 중국과 미국이 인공 지능에 관한 일부 조약에 서명해야 할 것이라고 예상합니다.
슈미트는 "1950년대와 1960년대에 우리는 핵 실험에 대해 '예상'이라는 규칙을 갖게 되었고 결국 핵 실험은 금지되었습니다."라고 말했습니다.
슈미트는 "이것은 균형의 예입니다."라고 말했습니다. 신뢰하든, 신뢰하지 않든, 그것은 '놀라움이 없는 법칙'이다." 그는 일부 오해와 오해로 인해 두 AI 강국인 미국과 중국 사이에 뭔가가 시작되어 위험한 사건이 촉발될 것을 매우 걱정하고 있습니다. .
슈미트는 현재 이 분야에 대해 아무도 연구를 하고 있지 않지만 인공지능은 너무나 강력하다고 말했습니다.
에릭 슈미트는 2001년부터 2011년까지 구글의 CEO, 2011년부터 2015년까지 구글의 회장, 2015년부터 2017년까지 알파벳의 회장, 2017년부터 2020년까지 알파벳의 기술 고문을 역임했습니다.
2008년 슈미트는 Google 회장으로 재직하는 동안 버락 오바마를 지지하는 캠페인을 벌였고 나중에 Eric Lander(과학 기술 자문 협의회) 회원과 함께 오바마 대통령의 기술 자문 위원회에서 활동했습니다.
2019년부터 2021년까지 Schmidt는 Robert O. Work와 함께 국가 AI 안보위원회 공동 의장을 맡았습니다.
인공 지능과 기계 학습은 인상적이지만 종종 오해를 받는 기술입니다. 대부분의 경우 사람들이 생각하는 것만큼 똑똑하지 않습니다.
명작 수준의 예술 작품을 제작할 수 있고, '스타크래프트 2'에서 인간을 이길 수 있으며, 사용자에게 기본적인 전화 통화도 할 수 있지만, 자율 주행과 같은 더 복잡한 작업을 완료하려는 시도는 별로 진전이 없었습니다. .
슈미트는 가까운 미래에 중국과 미국 모두 안보 문제에 대해 우려하여 양측이 인공 지능에 대한 일종의 억제 조약을 체결하도록 강요할 것이라고 예상합니다.
그는 국가들이 외교를 통해 지구상에서 가장 치명적인 무기에 대한 일련의 통제를 조직했던 1950년대와 1960년대에 대해 이야기했습니다. 그러나 히로시마와 나가사키의 핵폭발과 같이 세계가 핵실험 금지 조약, SALT II 및 기타 획기적인 법안이 제정되는 지점에 도달하려면 수십 년의 핵폭발이 필요할 것입니다.
미국은 제2차 세계대전 말 핵무기로 일본의 두 도시를 파괴하고 수천 명의 목숨을 앗아갔으며 핵무기의 영원한 공포를 세계에 입증했습니다.
이후 소련과 중국도 핵개발에 성공했고, 한 나라가 핵무기를 발사하면 다른 나라도 이를 보장하는 '위험 균형'을 유지하는 억지론인 상호확증파괴(MAD)가 탄생했다. 출시할 가능성도 있습니다.
지금까지 인류는 지구상에서 가장 파괴적인 무기를 사용하는 것이 전 세계의 문명을 파괴할 수 있기 때문에 사용을 자제해 왔습니다.
이제는 인공지능이 핵무기만큼 파괴적이라는 것이 입증되지 않은 것 같지만, 많은 권력자들은 이 새로운 기술을 두려워합니다. 심지어 사람들은 인공지능에게 핵무기의 통제권을 넘겨주자고 제안하기도 합니다. 인간보다 더 강력합니다. 핵무기 사용의 중재자로서 더 적합합니다.
그래서 AI의 문제는 잠재적으로 세계를 파괴할 수 있는 핵무기의 힘을 가지고 있다는 것이 아니라 AI는 설계자만큼만 훌륭하고 제작자의 가치를 반영한다는 것입니다.
인공지능에는 고전적인 '쓰레기가 들어오면 쓰레기가 나온다'는 문제가 있습니다. 인종차별 알고리즘은 인종차별 로봇을 낳고, 인공지능도 편견을 낳습니다.
DeepMind CEO Demis Hassabis는 Schmidt보다 이 점을 더 잘 이해하고 있습니다.
DeepMind는 7월 Lex Fridman 팟캐스트 인터뷰에서 Hassabi에게 AI만큼 강력한 기술을 제어하는 방법과 Hassabi 자신이 그러한 힘에 의해 손상되는 것을 피하는 방법을 물었습니다.
Hassabis의 답변: “인공지능은 너무 큰 아이디어입니다.” 그는 “중요한 것은 누가 (인공지능을) 만들었는지, 어떤 문화에서 왔는지, 어떤 가치를 가지고 있는지, 인공지능을 만든 사람인지이다. AI 시스템은 스스로 학습하지만... 시스템을 만든 사람의 문화와 가치는 시스템에 남게 됩니다."
인공지능은 만든 사람, 120만 톤을 반영합니다. 인간이 그렇게 하도록 가르치지 않는 한, 대규모 폭발은 도시를 땅바닥으로 무너뜨릴 수 없습니다.
위 내용은 구글 전 CEO: AI는 핵무기와 같다. 큰 나라들은 상호 파괴를 보장하기 위해 'AI 억지력'을 확립해야 한다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!