참고뉴스 네트워크는 5월 31일 보도했다.미국 포춘지 웹사이트는 5월 30일 게재된 '샘 알트먼 등 기술 전문가들은 인공지능이 '멸종 위험'을 제기하고 위험 정도는 전염병과 관련이 있다고 경고한다'는 제목으로 핵 War is on par", 전문은 다음과 같이 발췌됩니다:
기술자들과 컴퓨터 과학 전문가들은 인공지능이 핵전쟁이나 세계적 전염병에 버금가는 인간 생존에 위협을 가한다고 경고했고, 인공지능을 위한 싸움을 주도해 온 비즈니스 리더들조차 이 기술이 인간 생존을 위협한다는 우려를 표명했습니다. 발행 된.
비영리 연구기관인 인공지능보안센터는 지난 30일 '인공지능의 위험성에 관한 성명서'를 발표했다. 오픈인공지능연구센터 대표 샘 알트만(Sam Altman)도 성명에 서명했다. 그들 중 하나. 편지는 간단하지만 인공지능의 위험성을 개략적으로 설명합니다. 편지에는 “인류를 멸종시키는 인공지능의 위험을 줄이고 전염병, 핵전쟁 등 사회 전체에 영향을 미치는 기타 위험을 줄이는 것이 세계적인 우선순위가 되어야 합니다.”라고 나와 있습니다.
서한의 시작 부분에서는 성명의 목적이 인공지능 기술의 잠재적인 종말론적 능력에 대비하기 위한 논의를 시작하는 것임을 나타냅니다. 조슈아 벤조(Joshua Benjo)와 전 구글 엔지니어 제프리 힌튼(Jeffrey Hinton)도 이 노력에 동참한 서명자 중 하나였습니다. 현대 컴퓨터 과학에 대한 공헌으로 인해 이 두 사람은 인공 지능의 대부로 알려져 있습니다. Benjo와 Hinton은 최근 몇 주 동안 인공 지능 기술이 가까운 미래에 개발할 수 있는 위험한 기능에 대해 반복해서 경고했습니다. Hinton은 최근 인공 지능의 위험성에 대해 보다 공개적으로 논의하기 위해 Google을 떠났습니다. 이 편지는 더 엄격한 정부 규제 없이 첨단 AI 연구가 가져올 수 있는 재앙적인 결과에 대해 더 많은 관심을 촉구하는 첫 번째 편지가 아닙니다. 지난 3월, 일론 머스크(Elon Musk)는 기술의 파괴적인 잠재력을 언급하며 첨단 인공지능 연구에 대한 6개월 유예를 요구한 1,000명 이상의 기술 전문가 중 한 명이었습니다. Altman은 이번 달 기술이 빠르게 발전함에 따라 규제가 더 이상 따라갈 수 없다고 의회에 경고했습니다. 알트만의 이번 발언은 이전 서한과 달리 구체적인 목표를 명확히 밝히지 않고 논의만 요구하는 내용이다. Hinton은 이달 초 CNN에 자신이 3월 서한에 서명하지 않았다고 말했습니다. 개방형 인공 지능 연구 센터(Open Artificial Intelligence Research Center)와 심지어 Google을 포함한 최고의 AI 연구 기관의 경영진은 정부에 AI 규제에 대한 신속한 조치를 취할 것을 촉구하고 있지만, 일부 전문가들은 허위 정보 및 편견 가능성을 포함한 현재의 일부 문제가 역효과를 낳는다고 경고합니다. 이미 큰 피해를 입히고 있는 인류의 생존을 위협하는 이 기술의 미래 위험에 대해 논의합니다. 어떤 사람들은 알트만과 같은 CEO들이 인공 지능의 위험성을 공개적으로 논의함으로써 실제로 기술과 관련된 기존 문제로부터 관심을 돌리려고 노력해왔다고 믿기도 합니다. 그러나 인공지능이 세상의 종말을 가져올 것이라고 예측하는 사람들은 기술이 너무 빨리 발전하여 위험이 곧 인간의 손이 닿지 않는 문제가 될 수도 있다고 경고합니다. 스스로 생각하고 추론하는 슈퍼인공지능의 능력이 점점 커지는 것은 많은 사람들이 예상하는 것보다 더 빠르게, 점점 더 많은 사람들을 걱정하게 만들고 있다. 일부 전문가들은 이 기술이 현재 인류의 이익과 복지에 부합하지 않는다고 경고합니다. 이달 워싱턴포스트와의 인터뷰에서 힌튼은 초인공지능이 빠르게 발전하고 있어 앞으로 20년밖에 남지 않았을 수도 있으며, 이제는 첨단 인공지능의 위험성에 대해 대화를 나눠야 할 때라고 말했습니다. 그는 "이것은 SF가 아니다"라고 말했습니다. (편집/Tu Qi)위 내용은 미국 언론: 인공지능은 전염병, 핵전쟁만큼 위험하다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!