인공지능을 경계하기엔 아직 늦지 않았다

王林
풀어 주다: 2023-04-10 09:11:07
앞으로
1511명이 탐색했습니다.

​우리는 목표를 완전히 정확하게 지정할 수 없으며, 잘못된 목표를 추구하는 초능력 기계가 전 세계적으로 초래하는 피해를 예측하거나 예방할 수도 없습니다. 우리는 클릭 수를 최적화하기 위해 사람들의 선호도를 활용하는 소셜 미디어 알고리즘의 예를 이미 보았으며 이는 민주적 제도에 비참한 결과를 가져왔습니다.

인공지능을 경계하기엔 아직 늦지 않았다

Nick Bostrom은 2014년 저서 Superintelligence: Paths, Danger, Strategies 주장에서 위험을 심각하게 받아들이는 것에 대해 자세히 설명합니다. "The Economist" 잡지는 이 책을 검토하면서 다음과 같은 결론을 내렸습니다. "지구에 두 번째 지능형 종의 도입은 광범위한 결과를 가져오며 숙고해 볼 가치가 있습니다."

물론 이 상황에는 매우 많은 위험이 따릅니다. 현명한 사람들은 이미 진지한 토론에 참여하고, 찬반 양론을 저울질하고, 해결책을 찾고, 해결책의 허점을 찾는 등 열심히 생각하고 있습니다. 내가 아는 한, 이러한 노력은 거의 성공하지 못했고 온갖 종류의 거부를 받았습니다.

일부 유명 인공지능 연구자들의 주장은 반박할 가치가 거의 없습니다. 나는 기사에서 수십 개의 주장을 보았거나 회의에서 들었고 그 중 일부는 다음과 같습니다.

전자 계산기는 산술에서 타의 추종을 불허하며 계산기는 세계를 장악하지 않으므로 초인적 인공 지능을 걱정할 이유가 없습니다.

역사상 기계가 수백만 명의 사람을 죽인 사례는 없었고, 이를 감안할 때 앞으로도 그런 일은 일어나지 않을 것입니다.

우주에는 무한한 물리량이 없으며 지능도 예외는 아니므로 초지능에 대해 너무 걱정할 필요는 없습니다.

아마도 인공 지능 연구자들의 가장 일반적인 대답은 "우리는 그것을 끌 수 있습니다."입니다. Alan Turing 자신도 이 가능성을 제기했지만 그다지 자신감이 없었습니다.

기계가 생각할 수 있다면 기계가 생각하는 것보다 더 포괄적으로 생각할 수도 있습니다. 그럼 우리는 어디에 있을 것인가? 비록 중요한 순간에 기계가 작동을 멈추는 등 기계가 우리에게 구부릴 수 있다고 하더라도, 우리는 하나의 종으로서 스스로를 부끄러워해야 합니다... 이 새로운 위험은... 우리를 불안하게 만들 것입니다.

기계를 끄면 작동하지 않습니다. 이유는 매우 간단합니다. 초지능 존재는 이러한 가능성을 확실히 고려하고 이를 방지하기 위한 조치를 취할 것입니다. 이는 "생존을 원하기" 때문이 아니라 우리가 설정한 목표를 추구하고 있으며 전원을 끄면 실패할 것임을 알고 있기 때문입니다. 단순히 보드의 해당 사각형에 조각을 놓는 것만으로 Alpha Go를 이길 수 있는 것과 마찬가지로 우리는 단순히 "그것을 끌" 수 없습니다.

다른 형태의 부정은 지능이 다면적이라는 생각과 같은 더 복잡한 생각으로 이어집니다. 예를 들어, 한 사람은 다른 사람보다 공간 지능은 높지만 사회 지능은 낮을 수 있으므로 엄격한 지능 순서로 모든 사람의 순위를 매길 수는 없습니다. 이는 기계의 경우 더욱 그렇습니다. Alpha Go의 "지능"을 Google 검색 엔진의 "지능"과 비교하는 것은 의미가 없습니다.

인공지능을 경계하기엔 아직 늦지 않았다Wired 매거진의 창립 편집장이자 통찰력 있는 기술 평론가인 Kevin Kelly는 이러한 관점을 한 단계 더 발전시켰습니다. 그는 자신의 저서 '초인공지능의 신화'에서 "지능은 단일 차원이 아니기 때문에 '인간보다 똑똑하다'는 것은 의미 없는 개념"이라고 썼다.

이제 분명한 대답이 있습니다. 기계는 모든 관련 지능 차원에서 인간을 능가할 수 있습니다. 이 경우 Kelly의 엄격한 기준에도 불구하고 로봇은 인간보다 더 똑똑할 것입니다. 그러나 이 다소 강력한 가정은 Kelly의 주장을 반박하는 데 필요한 것은 아닙니다.

침팬지를 예로 들어보세요. 침팬지는 인간보다 단기 기억력이 더 좋을 수 있습니다. 숫자 배열을 기억하는 것과 같이 인간이 잘하는 작업에서도 마찬가지입니다. 단기 기억은 지능의 중요한 차원입니다. Kelly의 주장에 따르면 인간은 침팬지보다 똑똑하지 않습니다. 실제로 그는 "침팬지보다 똑똑하다"는 것은 의미없는 개념이라고 말할 것입니다.

인간의 관용 덕분에 살아남은 침팬지와 다른 종들, 그리고 인간이 파괴한 모든 종들에게 이것은 작은 위로입니다. 다시 말하지만, 이것은 기계에 의해 전멸되는 것을 걱정하는 사람에게는 거의 위안이 되지 않습니다.

어떤 사람들은 초지능은 달성 불가능하다고 생각하므로 초지능의 위험은 더 이상 존재하지 않습니다. 이런 주장은 새로운 것은 아니지만, 이제 AI 연구자 스스로도 그런 인공지능은 불가능하다고 말하는 것이 놀랍다. 예를 들어, AI100 조직의 중요 보고서인 '인공지능과 2030년의 삶'에서는 "영화 장면과 달리 초인적 로봇은 미래에 현실에 등장하지 않을 것이며 나타날 수도 없다"고 밝혔습니다.

제가 아는 한, 진지한 인공지능 연구자가 인간 수준이나 초인적 인공지능은 불가능하다고 공개적으로 밝힌 것은 이번이 처음이며, 이는 인공지능 연구가 급속히 발전하는 시기에 일어나는 일입니다. 다른 사람이 침입 한 후. 그것은 마치 최고의 암 생물학자들이 우리를 계속 속였다고 발표하는 것과 같습니다. 그들은 암에 대한 치료법이 결코 없을 것이라는 것을 줄곧 알고 있었습니다.

이러한 큰 변화를 촉발한 것은 무엇입니까? 보고서에는 어떤 주장이나 증거도 제공되지 않았습니다. (실제로 인간의 두뇌보다 더 나은 원자 배열을 갖는 것이 물리적으로 불가능하다는 증거는 무엇입니까?) 나는 주된 이유가 부족주의, 즉 인공 지능에 대한 "공격"에 대한 방어라고 생각합니다. 그러나 초지능 AI를 AI에 대한 공격으로 간주하는 것은 조금 이상해 보이고, AI가 결코 목표를 달성하지 못할 것이라고 방어하는 것은 더욱 터무니없는 것 같습니다. 인간의 창의성의 한계에 기대어 미래의 재앙이 일어나지 않는다고 보장할 수는 없습니다.

엄밀히 말하면 초인적인 인공지능은 불가능하지 않은데, 섣불리 위험을 걱정할 필요는 없지 않을까? 컴퓨터 과학자 Andrew Ng는 이것이 "화성의 인구 과잉"에 대해 걱정하는 것과 같다고 믿습니다. 그러나 장기적인 위험은 여전히 ​​우려 사항입니다. 인간과 관련된 잠재적으로 심각한 문제에 대해 걱정해야 하는 시기는 문제가 발생하는 시기뿐 아니라 솔루션을 준비하고 구현하는 데 걸리는 시간에 따라 달라집니다.

예를 들어, 2069년에 지구와 충돌할 예정인 소행성을 탐지하려면 2068년까지 기다렸다가 해결책을 찾기 시작할까요? 당연히 아니지! 인류는 얼마나 많은 시간이 필요할지 미리 알 수 없기 때문에 위협에 대처할 방법을 찾기 위해 글로벌 비상 프로젝트를 세울 것입니다.

Ng Enda의 관점은 사람들이 수십억 명의 사람들을 화성으로 보내는 것이 불가능하다고 느끼게 만듭니다. 이 비유는 잘못되었습니다. 우리는 성공할 경우 어떤 일이 일어날지 전혀 고려하지 않고 보다 강력한 AI 시스템을 만드는 데 막대한 양의 과학 및 기술 자원을 투자합니다. 좀 더 적절한 비유를 할 수 있습니다. 도착 후 호흡 및 식사 문제를 고려하지 않고 인간을 화성으로 옮길 계획을 세우는 것입니다. 어떤 사람들은 이 계획이 현명하지 않다고 생각할 수도 있습니다.

잠재적인 문제를 회피하는 또 다른 방법은 위험에 대한 우려가 무지에서 비롯된다고 주장하는 것입니다. 예를 들어, Allen Institute for Artificial Intelligence의 CEO인 Oren Etzioni는 Elon Musk와 Stephen Hawking이 AI의 잠재적인 위협에 관심을 불러일으키고 AI의 맹목적인 충동에 저항하는 사람들(신기술에 대한 반대)이라고 비난했습니다. 새로운 것:

모든 새로운 기술 혁신은 사람들을 두려움에 빠뜨립니다. 산업 시대의 새벽, 직조기에 신발을 던지는 직공부터 오늘날의 킬러 로봇에 대한 두려움까지, 신기술이 우리의 자아 인식과 생계에 어떤 영향을 미칠지 궁금합니다. 우리는 아무것도 모르면 당황합니다.

이 고전적인 잘못된 주장을 액면 그대로 받아들이더라도 설득력이 없습니다. Hawking은 과학적 추론에 익숙하며 Musk는 여러 인공 지능 연구 프로젝트를 감독하고 투자했습니다. 우려를 제기한 빌 게이츠, I.J. 굿, 마빈 민스키, 앨런 튜링, 노버트 위너가 인공지능을 논할 자격이 없다고 생각하면 더욱 비참할 것이다.

러디즘을 비난하는 것도 완전히 잘못된 것입니다. 이는 마치 누군가가 핵분열 반응을 통제할 필요성을 지적하면서 원자력 공학자들을 러다이트주의자라고 비난하는 것과 같습니다. 즉, AI의 위험성을 언급한다는 것은 AI의 잠재적인 이점을 부정한다는 의미입니다. Oren Etzioni를 예로 들어보겠습니다.

비관적인 예측은 의료 사고를 예방하고 자동차 사고를 줄이는 데 있어 인공 지능의 잠재적 이점을 고려하지 못하는 경우가 많습니다.

최근 페이스북 CEO 마크 저커버그는 엘론 머스크와 미디어 교류를 가졌습니다.

인공지능을 반대하는 것은 사고를 일으키지 않는 더 안전한 자동차를 반대하는 것이고, 더 정확한 환자 상태 진단을 반대하는 것입니다.

위험을 언급하는 사람을 모두 "반 AI"라는 개념은 이상합니다. (원자력 안전 엔지니어는 "전기에 반대"하는가?) 더욱이 전체 주장은 두 가지 이유로 정반대입니다. 첫째, 잠재적인 이익이 없다면 AI 연구와 인간 수준 AI가 제기하는 위험에 대한 인센티브가 없을 것이며 우리는 이에 대해 논의하지 않을 것입니다. 둘째, 위험을 성공적으로 줄일 수 없으면 아무런 이점도 없습니다.

1979년 스리마일 섬, 1986년 체르노빌, 2011년 일본 후쿠시마에서 일어난 재앙적인 사건들은 원자력 에너지의 잠재적 이점을 크게 감소시켰습니다. 이러한 원자력 재해는 원자력 산업의 발전을 심각하게 제한했습니다. 이탈리아는 1990년에 원자력 에너지를 포기했고 벨기에, 독일, 스페인, 스위스는 이미 원자력 에너지 계획을 포기한다고 발표했습니다. 1991년부터 2010년까지 매년 추가된 순 신규 원자력 발전 용량은 체르노빌 사고 이전 수년간의 1/10 수준이었습니다.

이상하게도 이러한 사건을 경고하면서 유명한 인지 과학자 스티븐 핑커는 "선진 사회의 안전 문화"가 모든 중요한 AI 위험을 제거할 것이기 때문에 인공 지능의 위험에 사람들이 주의를 환기시켜서는 안 된다고 여전히 믿고 있습니다. 우리의 선진 안전 문화로 인한 체르노빌, 후쿠시마, 그리고 폭증하는 지구 온난화를 무시하더라도 핑커의 주장은 요점을 완전히 놓치고 있습니다. 기능하는 안전 문화에는 잠재적인 실패 모드를 지적하고 이를 방지할 수 있는 방법을 찾는 것이 포함되며, AI의 표준 모델은 실패 모드입니다.

Pinker는 또한 문제가 있는 AI 행동이 특정 유형의 목표 설정에서 비롯된다고 믿습니다. 이를 고려하지 않으면 문제가 없을 것입니다.

AI 디스토피아 프로젝트는 좁은 남성 우월주의 사고 방식을 지능 개념에 투영합니다. 그들은 초인적인 지능을 가진 로봇이 주인을 전복시키거나 세계를 정복하는 등의 목표를 갖게 될 것이라고 믿습니다.

딥 러닝의 선구자이자 Facebook 인공 지능 연구 책임자인 Yann LeCun은 인공 지능의 위험을 경시할 때 종종 같은 관점을 인용합니다.

인공 지능이 자기 보호를 하도록 허용할 필요는 없습니다. 본능, 질투 등... AI는 그러한 감정을 포함하지 않는 한 파괴적인 "감정"을 생성하지 않습니다.

이 위험이 무시할 만하다고 생각하는 사람들은 왜 초인공지능이 인간의 통제를 받아야 하는지 설명하지 않습니다.

사실 우리가 '감정'이나 '욕망'(예: 자기 보존, 자원 획득, 지식 발견 또는 극단적인 경우 세계 지배)을 내재했는지 여부는 중요하지 않습니다. 기계는 성별에 관계없이 우리가 구축한 목표의 하위 목표와 마찬가지로 이러한 감정을 생성합니다. "기계 끄기"라는 관점에서 알 수 있듯이, 수명 종료 자체는 기계에 나쁜 일이 아닙니다. 그러나 일단 종료되면 목표 달성이 더 어려워지므로 종료는 피해야 합니다.

"목표 설정 방지" 주장의 일반적인 변형은 충분히 지능적인 시스템이 지능 덕분에 필연적으로 스스로 "올바른" 목표를 설정할 것이라는 것입니다. 18세기 철학자 데이비드 흄(David Hume)은 인간 본성에 관한 논문(A Treatise of Human Nature)에서 이 견해를 반박했습니다. Nick Bostrom은 그의 저서 "Superintelligence"(Superintelligence)에서 Hume의 관점을 직교 명제로 간주합니다.

지능은 궁극적인 목표와 직교합니다. 모든 수준의 지능은 어느 정도 최종 목표와 통합될 수 있습니다.

예를 들어, 자율 주행 자동차의 목적지는 지정된 위치일 수 있습니다. 자동차를 더욱 자율적으로 만든다고 해서 확립된 수학적 계산이 필요한 주소로의 이동을 자동으로 거부한다는 의미는 아닙니다.

마찬가지로 일반 지능형 시스템에 클립 수나 알려진 파이 비율의 자릿수를 최대화하는 등 어느 정도 목표가 주어질 수 있다고 상상하는 것은 어렵지 않습니다. 이것이 강화 학습 시스템과 기타 보상 최적화 프로그램이 작동하는 방식입니다. 알고리즘은 완전히 일반적이며 모든 보상 신호를 받아들일 수 있습니다. 표준 모델을 연구하는 엔지니어와 컴퓨터 과학자에게 직교성 제안은 단순히 주어진 것입니다.

유명한 로봇 공학 전문가인 로드니 브룩스는 보스트롬의 직교성 이론을 분명히 비판했습니다. 그는 프로그램이 "인간에게 문제를 일으키는 방식을 이해하지 않고서는 인간 사회를 전복시켜 목표를 달성할 만큼 충분히 똑똑할 수 없다"고 주장했습니다.

그러나 Bruske의 문제 정의에 따르면 그러한 프로그램은 가능할 뿐만 아니라 실제로 불가피합니다. Bruske는 "인간이 설정한 목표 달성"을 위한 기계의 모범 사례가 인간에게 문제를 일으키고 있다고 믿습니다. 이러한 문제는 인간이 목표를 설정할 때 인간에게 가치 있는 것이 무엇인지를 무시하고 있음을 반영한다고 볼 수 있습니다. 기계가 실행하는 최상의 솔루션은 인간에게 문제를 일으킬 가능성이 높으며 기계는 이를 인지할 가능성이 높지만 기계가 이러한 문제를 문제로 간주하지 않는 것은 분명히 인간의 일이 아닙니다.

결론적으로, AI로 인한 위험이 미미하다고 믿는 "회의론자"는 왜 슈퍼 AI 시스템이 인간의 통제하에 있어야 하는지 설명하지 않으며, 슈퍼 AI 시스템이 결코 개발되지 않는 이유도 설명하려고 시도하지 않습니다.

인공지능 분야는 계속해서 대결과 비방에 빠지고 신뢰할 수 없는 주장을 반복적으로 파헤치기보다는 위험을 감수하고 이를 줄이기 위해 최선을 다해야 합니다. 우리가 아는 한, 이러한 위험은 사소하지도 않고 극복할 수 없는 것도 아닙니다. 첫 번째 단계는 표준 모델을 교체해야 하며 AI 시스템이 고정된 목표를 최적화한다는 것을 인식하는 것입니다. 이것은 열악한 엔지니어링입니다. 인공지능의 기반을 재편하고 재구성하기 위해서는 많은 노력이 필요합니다.

위 내용은 인공지능을 경계하기엔 아직 늦지 않았다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿
회사 소개 부인 성명 Sitemap
PHP 중국어 웹사이트:공공복지 온라인 PHP 교육,PHP 학습자의 빠른 성장을 도와주세요!