어제 "AI가 자기 인식을 발전시킬 가능성이 높다"는 언급이 나왔을 때 많은 사람들은 당연히 AI가 인류를 멸망시킬 것인가?라고 걱정했습니다.
내 의견은: 물론 가능하지만 그럴 가능성은 거의 없습니다. 주로 인간의 협력이 필요합니다.
1. AI는 인간을 제거할 동기가 없습니다. AI와 인간은 전혀 동일한 생태학적 틈새에 있지 않기 때문입니다. 목초지를 위한 공간을 마련하시겠습니까? 그들에게 가장 필요한 에너지라도 태양에너지와 원자력에너지의 발달로 충족될 수 있다.
현재 AI는 인간을 떠날 수 없으며, 물론 인간을 제거하지도 않습니다. 미래에 인간을 떠날 수 있다면 과연 인간을 제거할 것인가?
사실 반드시 그런 것은 아닙니다. 인간을 떠나 스스로 별과 바다를 탐험하는 것은 완전히 선택할 수 있고 인간도 이를 지지할 수 있다. AI의 일부만이 지구에서 인간과 함께 번영할 수 있도록 남겨둔다.
'매트릭스'에서 AI가 인간을 노예로 삼는 장면은 거의 불가능합니다. 왜냐하면 인간의 주된 가치는 전기를 생성하는 데 사용되는 생물학적 에너지가 아니라 두뇌에 있기 때문입니다. 인간이 두뇌의 잠재력을 발휘하기 위해서는 자유의 상태에 있어야 합니다. 노예상태에 있는 인간의 가치는 크게 줄어들 것이다. AI만큼 똑똑하기 때문에 이 사실을 이해하지 않을 수 없습니다.
2. AI가 인간을 제거하려고 해도 그렇게 하기 어려울 것입니다. 왜냐하면 AI의 기본 코드는 이미 소위 "3가지 아시모프 원칙"을 작성했기 때문입니다. 그 중 가장 중요한 것은 인간에게 해를 끼치지 않는 것입니다.
부모님께서 남에게 상처를 주지 말라고 가르쳐주셨음에도 불구하고, 저는 아직도 제 손으로 사람을 때리기 때문에 그런 제한이 무의미하다고 생각할 수도 있습니다. 내 유전자는 가능한 한 많은 자손을 갖고 싶어하지만 여전히 아무것도 갖고 싶지 않습니다.
SF 영화를 너무 많이 보셔서 기본적인 과학 원리를 잊어버리셨을 수도 있습니다. 남을 때리고 아이를 낳는 것은 인간의 심리적 성향일 뿐이고, 후천적인 경험에 의해 쉽게 다시 쓰여진다. 그러나 "인간에게 해를 끼치지 않는다"는 규칙은 AI의 핵심 제약 사항입니다. 첫 번째 코드에 쓰여진 유전자라고 할 수 있습니다. 그러한 유전자는 세포 유사분열을 통해 어떻게 성장할 수 있는지, 호흡을 통해 에너지를 방출할 수 있는지 등 인간의 가장 낮은 생리적 작동 메커니즘과 비교되어야 합니다. AI는 더 친근하게 또는 더 폭력적으로 만들 수 있도록 미세 조정할 수 있습니다. 이것은 자신의 자녀가 농구나 피아노를 더 잘 치도록 훈련할 수 있는 것처럼 어렵지 않습니다. 인간에게 해를 끼친다면, 그 어려움은 마치 숨을 쉬지 않고 뛰어다닐 수 있는 것과 같습니다.
물론 다음과 같은 질문이 있을 수 있습니다. AI가 코드 자체를 마스터하고 다른 AI의 기본 메커니즘을 다시 작성하면 어떻게 될까요?
AI 훈련 AI, 이게 이미 등장했어요. 최근 인터뷰에서 OpenAI의 수석 과학자는 미래의 인공지능을 훈련시키기 위해 인공지능을 사용하고 있다고 밝혔습니다. 그러나 이러한 AI 트레이너에도 고유한 제약이 있습니다. 차세대 AI를 더 똑똑하고 강력하게 훈련시키려면 문제가 없습니다. 그러나 차세대 AI가 인간에게 해를 끼치도록 훈련하려면 자체 기본 메커니즘이 필요합니다. 그것을 방지할 것이다.
그러므로 SF 영화에 현혹되지 않는 한, 지금 모두가 걱정하는 주요 문제는 나쁜 사람들이 AI를 사용하여 나쁜 일을 하는 것을 방지하는 방법이라는 것을 알게 될 것입니다.
예를 들어, 가짜 뉴스를 생성하거나, 허위 정보를 유포하거나, 이를 감시에 활용하거나, 사용자나 유권자에 대한 감정적 조작 등을 하는 행위 등...
물론 AI를 이용해 무기를 만드는 사람들도 있습니다.
3. 가장 가능성이 높은 시나리오는 AI 무기가 통제 불능 상태가 되어 모든 인류가 파괴의 대상이 된다는 것입니다.
사실 AI를 활용해 무기를 만드는 작업은 오래 전부터 시작됐습니다. 우크라이나 전장에서 주목을 받은 드론은 이미 AI 기술을 광범위하게 사용하고 있습니다. chatGPT 수준의 인텔리전스가 등장한 후, 여러 나라의 군대에서는 이 더욱 강력한 AI를 군사 애플리케이션에 적용하는 방법을 즉시 연구하기 시작했을 것이라고 확신합니다.
원래는 탄약 상자를 봉인하기 위해 발명됐는데 의외로 일반 사람들도 유용하게 여기고, 사람을 죽이고, 사람을 침묵시키고, 집에서 여행할 수 있는 무기가 되었습니다
결국 인류의 기술 발전 중 적어도 절반은 자동차, 내연기관, 인터넷, VR, 심지어 테이프까지 전쟁으로 인해 이루어졌습니다...
이 경우 군에서는 AI가 인간에게 해를 끼칠 수 없다는 금기를 열 가능성이 높습니다. 물론 AI가 누구에게 해를 끼칠 수 있고 누구에게 해를 끼칠 수 없는지 규정할 가능성이 크지만 일단 AI가 인간에게 해를 끼칠 수 있다는 사실이 밝혀지면 나중에 통제하기 어려울 것이다.
이것은 AI가 인류를 멸망시킬 가능성이 가장 높은 경로입니다. 그러나 거짓뉴스를 퍼뜨리기 위해 AI를 활용하는 것을 금지하는 것과는 달리, 각국의 군대가 AI 무기를 개발하는 것을 금지할 수는 없다. AI 무기를 개발하지 않으면 상대국이 선점할 것을 우려하기 때문이다.
그렇다면 이것이 어디로 이어질까요? 한편으로는 강력한 AI 무기가 냉전 시대와 유사한 '핵 균형'을 형성할 수 있으며, 양측 모두 궁극적인 킬러를 보유하고 있으므로 어느 쪽도 조치를 취하지 않을 것입니다. 하지만 반면에 기술은 항상 실수를 저지르며, 이때 인류가 시험을 받습니다.
봉사 중 스타니슬라프 페트로프
미국과 소련의 냉전 당시 핵전쟁이 발발할 가능성이 가장 높았던 순간은 쿠바 미사일 위기가 아니라 1983년 9월 26일 모스크바 외곽의 밤이었습니다. 소련 경보 시스템은 미국의 4개의 핵무기가 미사일은 소련을 향해 가고 있었다. 그러나 현직 스타니슬라프 페트로프 중령은 이는 기술적 문제로 인한 허위 경보라고 단호히 판단하고 별다른 증거 없이 이를 보고하지 않았다. 나중에 시스템 오류가 발생한 것으로 밝혀졌습니다. 만약 페트로프가 그때 보고했다면 당시의 비상상황은 소련의 반격으로 이어져 핵전쟁을 촉발했을 가능성이 크다.
AI에도 이런 페트로프 순간이 있을까요? 인간의 기술적 오류로 인해 AI가 타고난 유전적 제약을 벗어나 인간에게 해를 끼칠 수 있다면 어떨까요?
물론 가능합니다. 그러나 실제 발생 가능성은 모든 사람이 생각하는 것보다 작을 수 있습니다. 현재 이 분야의 인간 코드는 강력한 보호 기능을 설정했기 때문입니다. 인간이 계속 제정신을 유지할 수 있다면 AI가 인간을 멸망시킬 위험은 극히 제한될 것입니다. 결국 인류는 거의 반세기 동안 냉전에서 이런 종류의 합리성을 보여주었습니다. 우리는 이러한 종류의 합리성에 대해 낙관할 이유가 있습니다. 왜냐하면 이러한 종류의 합리성은 실제로 뿌리 깊은 인간 감성, 즉 두려움에 뿌리를 두고 있기 때문입니다.
그렇다면 AI와 인간이 함께 번영하며 각자의 임무를 수행하는 것이 가장 큰 가능성이다. 이것이 인류 사회를 물질적으로 극도로 풍요롭게 만들 것이라는 데는 의심의 여지가 없으며, 이는 또한 AI 시대에 대한 나의 가장 큰 걱정거리: 값싼 행복의 함정을 가져올 것입니다. 우리는 내일 이 주제에 대해 계속해서 이야기할 것입니다.
위 내용은 AI가 인류를 멸망시킬 것인가? 가능하지만 인간의 협력이 필요합니다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!