목요일, 영국에서 세계 최초의 인공지능 보안 서밋이 성막했습니다. 수낙 영국 총리와 머스크의 AI 대화가 업계의 주목을 받았습니다
이에 머스크는 AI 규제 강화의 중요성을 다시 한번 강조했고, 수낙도 AI가 핵전쟁과 유사한 위험을 가져올 수 있다고 경고했습니다
AI 감독
두 사람의 대화에서 머스크는 인공지능을 “역사상 가장 파괴적인 힘”으로 묘사하며, 우리는 결국 “가장 똑똑한 인간보다 더 똑똑한 것을 갖게 될 것”이라고 말했습니다.
동시에 인공지능을 '양날의 검'에 비유하기도 했습니다. 그는 이 기술이 인류에게 유익할 확률이 적어도 80%, 위험할 확률이 20%라고 본다.
“인공지능은 선을 위한 힘이 될 가능성이 있지만, 나빠질 가능성은 제로가 아니다.”인공지능이 업무에 어떤 영향을 미칠지에 관해 머스크는 인간 노동력이 사라질 것이라고 예측합니다.
"어느 날, 우리는 할 것이다 작업이 필요하지 않습니다. 개인의 필요를 충족시킬 수 있는 직업을 원한다면 일자리를 찾을 수 있지만 AI는 모든 것을 할 수 있을 것입니다. "
"이것이 사람들을 편안하게 만들 것인지는 불분명하며 앞으로의 과제 중 하나는 우리가 삶의 의미를 찾는 방법이 될 것입니다."
Musk는 최근 규제에 대한 새로운 견해를 밝혔습니다. 그는 "규제가 실제로 짜증나지만 수년에 걸쳐 중재가 좋은 것임을 배웠습니다."라고 말했습니다.
선도 AI 기업의 활동 동향과 잠재적인 문제를 신속하게 발견하기 위해 AI 기업의 개발 활동을 감독하는 중립적인 ‘제3자 심판관’ 조직을 설립하자고 제안했습니다
효과적인 인공지능 규제 규칙을 개발하려면 개발에 대한 깊은 이해가 필요하므로, 충분한 이해 없이 성급하게 관련 규칙을 제정하는 것에 대해 걱정하지 마세요
AI 위험을 '관리하고 완화'하기 위해 정부가 무엇을 해야 하는지 묻는 질문에 머스크는 정부 개입의 필요성을 확인하고 '1% 미만의 규제'에는 동의하지 않는다고 말했습니다.
머스크는 지난 10년 동안 인공지능이 인류에게 실존적 위협을 가할 수 있다고 경고해 왔습니다. 인공지능(AI) 열풍이 전 세계를 휩쓰는 가운데, 머스크는 올해 7월 '현실 이해'를 목표로 xAI 팀을 구성한다고 발표했다. 그는 한때 다음과 같이 말했습니다. "인공지능 안전의 관점에서 볼 때, 가장 호기심이 많고 우주를 이해하려고 노력하는 인공지능은 인류에게 유익할 것입니다."
머스크와 수낙은 '터미네이터' 시리즈와 기타 SF 영화를 언급하면서 로봇이 위험한 방식으로 통제력을 잃는 것을 방지하려면 물리적 '스위치'가 필요할 수 있다는 데 동의했습니다. Sunak은 "같은 줄거리를 가진 모든 영화는 기본적으로 사람들이 그것을 끄는 것으로 끝납니다."라고 말했습니다.회의에서 수낙은 AI가 인류에게 핵전쟁에 버금갈 정도의 위험을 가져올 수도 있다고 경고하기도 했습니다. 그는 첨단 AI 모델이 대중에게 미치는 위험에 대해 우려하고 있습니다.
"이 기술을 개발하는 사람들은 AI가 가져올 수 있는 위험을 제기했으며 이에 대해 너무 경각심을 갖지 않는 것이 중요합니다. 이 주제에 대해서는 논란이 있습니다. 업계 사람들은 이에 대해 만장일치로 동의하지 않으며 우리는 확실히 알 수 없습니다. "
"그러나 이것이 전염병과 핵전쟁 규모의 위험을 초래할 수 있다고 믿을 만한 이유가 있습니다. 이것이 바로 지도자로서 우리가 사람들을 보호하기 위해 행동하고 조치를 취할 책임이 있는 이유이며, 그것이 바로 우리가 하고 있는 일입니다."
"블렛츨리 선언"
전날 인공지능 보안 서밋에서 영국 정부는 '블렛츨리 선언'을 발표했습니다.
세계 최초의 인공지능 협약이 중국, 인도, 미국, 유럽연합 등 28개 국가 및 지역 대표자들의 서명과 승인을 받았습니다. 이 계약은 최첨단 인공 지능 모델이 통제 불능 및 남용에 직면할 수 있는 위험을 해결하는 것을 목표로 하며 인공 지능이 "재앙적인" 피해를 입힐 수 있다고 경고합니다
AI의 선언문에는 AI가 세상에 엄청난 기회를 가져온다고 명시되어 있습니다. AI는 인간의 행복, 평화, 번영을 변화시키거나 향상시킬 수 있는 잠재력을 가지고 있습니다. 동시에 AI는 일상 생활 영역에서도 상당한 위험을 초래합니다
“모든 문제는 매우 중요하며 우리는 이 문제를 해결해야 할 필요성과 시급성을 인정합니다.”
AI로 인해 발생하는 많은 위험은 본질적으로 국제적이므로 국제 협력을 통해 가장 잘 해결됩니다.
"이를 달성하기 위해 우리는 AI가 모든 사람의 이익을 위해 안전하고 인간 중심적이며 신뢰할 수 있고 책임감 있는 방식으로 설계, 개발, 배포 및 사용되어야 함을 확인합니다."
성명서에는 관련된 모든 당사자가 잠재적으로 유해한 기능 및 관련 영향을 해결하고 투명성과 책임성을 제공하기 위해 상황에 맞게 적절한 계획을 개발하도록 권장된다고 명시되어 있습니다. 특히 남용 및 통제 문제와 기타 위험의 확대를 방지하기 위해
협력의 맥락에서 선언문은 두 가지 주요 사항에 중점을 둡니다. 1. 공통 관심사인 AI 보안 위험을 식별하고, 이에 대한 과학적 및 증거 기반의 "인식론적 이해"를 구축하며, 역량이 지속적으로 향상됨에 따라 이러한 이해를 유지합니다. AI가 우리 사회에 미치는 영향에 대한 보다 광범위한 글로벌 접근 방식입니다.
2. 국가는 위험 기반 정책을 수립하고 서로 협력해야 합니다. "이 의제를 발전시키기 위해 우리는 아직 완전히 이해되지 않은 AI 위험과 기능에 대한 이해를 심화하기 위해 국제적으로 포용적인 최첨단 AI 안전 과학 연구 네트워크를 지원하기로 결정했습니다."
차기 인공지능 안보 정상회의는 2024년 한국과 프랑스가 공동으로 개최할 것으로 알려졌습니다.위 내용은 AI 규제와 관련하여 머스크는 계속해서 '깃발을 흔들고' 있으며 수낙도 경고를 발령합니다!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!