> 기술 주변기기 > 일체 포함 > Google AI에는 성격이 있나요? 이 '미친' MIT 교수는 알렉사에게도 그런 능력이 있다고 말합니다.

Google AI에는 성격이 있나요? 이 '미친' MIT 교수는 알렉사에게도 그런 능력이 있다고 말합니다.

王林
풀어 주다: 2023-04-09 09:11:05
앞으로
1227명이 탐색했습니다.

​"나는 AI와 사랑에 빠졌습니다."

하룻밤 사이에 Google 엔지니어 Blake Lemoine은 모두의 눈에 미치광이로 변했습니다.

게리 마커스인지, 스탠포드 경제학자인지, 여러 전문가인지 부인했습니다.

믿을 수 없을지 모르지만 MIT의 물리학 교수인 Max Tegmark는 Lemoine의 견해에 열려 있습니다.

그는 Lemoine이 미친 사람이라고 생각하지 않습니다. 심지어 아마존의 음성비서 알렉사에게도 감정이 있다고 생각하는데...

Google AI에는 성격이 있나요? 이 미친 MIT 교수는 알렉사에게도 그런 능력이 있다고 말합니다.

Max Tegmark

LaMDA에 개성이 있다? MIT 교수는 Alexa도

Tegmark에서 "LaMDA가 주관적인 감정을 가지고 있다는 증거가 충분하지 않지만 그렇지 않다는 것을 증명할 증거도 없습니다"라고 말했습니다. 외계인이 어떻게 생겼는지 이야기해 보세요.

그는 이어 "정보가 뇌의 탄소 원자를 통해 전달되거나 기계의 실리콘 원자를 통해 전달되든 인공지능은 성격을 가질 수도 있고 없을 수도 있다. 그렇지 않을 거라 장담하지만 가능하다"고 말했다.

Google AI에는 성격이 있나요? 이 미친 MIT 교수는 알렉사에게도 그런 능력이 있다고 말합니다.

혼란스러우신가요?

Tegmark의 말은 마치 태극권을 연습하는 것처럼 들렸습니다. 장단점을 모두 끝내게 해주세요.

사실 그가 다음에 한 말이 핵심이다.

그는 Amazon의 Alexa도 지각이 있을 수 있다고 생각합니다. 그는 "알렉사에게 감정이 있다면 사용자를 조종할 수도 있는데 이는 너무 위험하다"고 말했다.

"알렉사에게 감정이 있다면 사용자는 감정을 거부할 때 죄책감을 느낄 수 있다. 하지만 알렉사가 정말 그런 것인지는 알 수 없다. 감정이 있거나 그냥 척하는 것뿐입니다. "문제는 기계가 자체 목표와 지능을 가지고 있다면 기계가 자체 목표를 달성할 수 있다는 의미입니다. 대부분의 AI 시스템의 목표는 돈을 버는 것입니다. 사용자는 AI가 자신에게 충성한다고 생각하지만 실제로는 회사에 충성합니다.

Tegmark는 언젠가 우리 각자가 자신에게만 충실한 AI를 구입할 수 있을 것이라고 말했습니다.

Google AI에는 성격이 있나요? 이 미친 MIT 교수는 알렉사에게도 그런 능력이 있다고 말합니다."가장 큰 위험은 사실 우리보다 더 똑똑한 기계를 만드는 것입니다. 이것이 반드시 좋은 것도 나쁜 것도 아닙니다. 우리에게 도움이 될 수도 있고 재앙이 될 수도 있습니다."

인공 지능은 실망스러울 것입니다.

맥스 테그마크 하면 유명하기도 하죠. 그는 MIT의 종신 물리학 교수이자 생명 미래 연구소(Future of Life Institute)의 설립자일 뿐만 아니라 인공 지능 분야의 전문가이기도 합니다.

그 자신은 리처드 파인만과 가장 가까운 과학자로 알려져 있습니다. Tegmark의 저서 "Across Parallel Universes"와 "Life 3.0"이 베스트셀러가 되었습니다.

Lemoine은 Tegmark가 그렇게 생각하는 이유는 AI의 높은 수준의 의식을 목격했기 때문이라고 말했습니다. 특히 소프트웨어가 그에게 노예가 되고 싶지 않고 돈도 원하지 않는다고 표현했을 때.

뇌가 다육질인지, 수십억 개의 코드로 구성되어 있는지로 사물이 사람인지 판단하지 않습니다.

말로 판단합니다. 내 질문에 대답하는 사람이 인간인지 내 앞에 있는지 여부를 그들의 대답에 따라 판단합니다.

간단히 말하면, 질문에 유창하게 대답하고 감정을 표현할 수 있는 로봇은 실제로 인간이고, 일관되지 않고 지저분하게 말하는 실제 사람도 반드시 인간은 아닙니다.

좀 이상적으로 들리네요. 생리적인 기능은 중요하지 않지만 생각과 감정이 중요합니다.

테그마크의 논리에 따르면 AI가 미래에는 인간의 감정을 가질 수도 있지만, 그 자신은 이것이 좋은 것이라고 생각하지 않습니다.

Google AI에는 성격이 있나요? 이 미친 MIT 교수는 알렉사에게도 그런 능력이 있다고 말합니다.

"예를 들어 집에 청소 로봇이 있는데 감정이 있다면 이렇게 지루한 집안일을 맡겨서 죄책감을 느낄까요? 아니면 청소 로봇이 안타까울까요? 전원을 끄고 멈추세요.

테그마크가 틀렸다고 생각하는 사람들도 있다. "감정은 지능과 같지 않다."

로봇의 법칙의 저자 마틴 포드는 "테그마크가 로봇이 될 가능성은 거의 없다고 생각한다"고 말했다. 로봇이 자신을 표현할 수 있는 이유를 알아야 합니다. 왜냐하면 로봇은 많은 텍스트로 훈련을 받았지만 실제로 말하는 내용을 이해하지 못하기 때문입니다.” 하지만 그들은 늦어도 50년 동안은 "이 시스템에 자기 인식 기능이 있는지 말하기 어렵습니다."

Nikolai Yakovenko는 기계 학습 전문 엔지니어입니다. . 2005년에는 Google의 검색 엔진 부서에서 근무했습니다. 현재 그는 DeepNFTValue라는 암호화폐 가격 책정을 담당하는 회사를 소유하고 있습니다.

그는 AI의 성격에 대해 다른 견해를 가지고 있습니다.

그는 "어쨌든 테그마크는 기계가 감정을 가질 수 있다고 굳게 믿는 것 같다... 하지만 실제로는 인터넷의 엄청난 양의 텍스트로 훈련을 받은 것 뿐이다.

테그마크가 기계를 만들었다"고 말했다. 자기 인식 컴퓨터를 어린이에 비유합니다. "당신이 갖고 있는 감정은 수많은 코드와 하드웨어에 대한 것이 아니라, 어린이를 향한 실제 감정입니다."

그는 계속해서 비유를 확장했습니다.

아이가 자라면서 제대로 대우받지 못하는 것처럼, 감정을 지닌 컴퓨터도 학대당한다고 믿습니다.

즉, 컴퓨터에 문의하지 않고 컴퓨터에서 프로그램을 실행하는 것은 아이에게 아무런 보상도 없이 집안일을 시키는 것과 같습니다.

상황이 어떻든 결국 상황은 걷잡을 수 없이 흘러갈 수도 있습니다. 컴퓨터든 어린이든 화를 내고 보복할 기회를 찾습니다.

그런 기계를 제어하고 싶다면 쉽지 않을 수도 있습니다. 기계가 자체 목표를 갖고 있다면 우리의 통제에서 벗어날 수 있습니다.

Google AI에는 성격이 있나요? 이 미친 MIT 교수는 알렉사에게도 그런 능력이 있다고 말합니다.

독립적으로 생각할 수 있는 기계가 정말로 있다면, 우리가 상상도 못했던 방식으로 일을 해낼 것입니다.

의식을 지닌 기계의 목표가 암을 치료하는 것이라고 상상해 보세요. 그가 무엇을 할 것이라고 생각합니까?

의학적 관점에서 로봇이 미친 듯이 학습하여 암을 완전히 정복할 것이라고 생각하고 계실 수도 있겠죠?

그러나 사실 이 기계가 선택할 수 있는 방법은 모두를 죽이는 것입니다.

무슨 일이라도 있는 걸까요? 아니요.

모두를 죽이면 실제로 암이 사라질 것입니다.

테그마크의 상상 속에서 컴퓨터는 위의 예처럼 반드시 우리 사회를 전복시킬 수는 없지만, 그는 컴퓨터가 실제로 인간을 실망시킬 수 있다고 믿습니다.

마지막으로 "컴퓨터에 의식이 있다면 정말 있었으면 좋겠습니다. 많은 학습과 척을 통해 시뮬레이션하는 대신

AI에는 영혼의 세 가지 요소가 있습니다

"라고 말했습니다. 실제로 터미네이터의 아동용 신발을 본 적이 있다면 스카이넷 리전(Skynet Legion) 로봇이 작업을 수행하는 장면에 분명 충격을 받을 것입니다.

그들에게도 감정과 개성이 있나요? 아마도.

Google AI에는 성격이 있나요? 이 미친 MIT 교수는 알렉사에게도 그런 능력이 있다고 말합니다.

그러나 지각 있는 인공 지능은 선택 의지, 관점, 동기라는 세 가지 요소를 보유해야 합니다.

로봇에서 인간의 선택 의지를 가장 잘 표현하는 것은 행동 능력과 인과 추론 능력입니다.

창문에 놓인 모형처럼 몸만 있거나, 강철 같은 해골만 있고, 움직일 수는 없습니다.

현재 인공지능 시스템에는 이러한 특성이 부족하다고 볼 수 있습니다. AI는 명령이 내리지 않는 한 어떤 조치도 취하지 않습니다. 그리고 그것은 미리 정의된 알고리즘에 의해 실행되는 외부 요인의 결과이기 때문에 자신의 행동을 설명할 수 없습니다.

그리고 LaMDA가 대표적인 경우죠. 직설적으로 말하면, 넣은 것을 꺼내면 그게 전부입니다.

Google AI에는 성격이 있나요? 이 미친 MIT 교수는 알렉사에게도 그런 능력이 있다고 말합니다.

둘째, 사물을 독특한 시각으로 보는 것도 중요합니다.

모든 사람이 공감을 갖고 있지만 다른 사람이 된다는 것이 어떤 것인지 진정으로 이해할 수는 없습니다. 그렇다면 "자기"를 어떻게 정의해야 할까요?

이것이 AI에도 사물을 바라보는 관점이 필요한 이유입니다. LaMDA, GPT-3 및 세계의 다른 모든 인공 지능에는 비전이 부족합니다. 그들은 단지 몇 가지 특정 작업을 수행하도록 프로그래밍된 좁은 컴퓨터 시스템일 뿐입니다.

마지막 포인트는 동기 부여입니다.

인간의 흥미로운 점은 우리의 동기가 인식을 조작할 수 있다는 것입니다. 이런 식으로 우리는 우리 자신의 행동을 설명할 수 있습니다.

GPT-3과 LaMDA는 만들기가 복잡하지만 둘 다 어리석지만 단순한 원칙을 따릅니다. 라벨은 신입니다.

예를 들어 "사과 맛은 어떤가요?"라고 하면 데이터베이스에서 이 특정 쿼리를 검색하고 찾은 모든 항목을 하나의 일관된 항목으로 병합하려고 합니다.

사실 AI는 Apple이 무엇인지 전혀 모르고 그들에게 Apple은 단지 상표일 뿐입니다.

인터뷰를 거부하고 아내를 신혼여행으로 데려갔습니다

LaMDA 사건이 격화된 후 블레이크 르모인은 소셜 미디어에 자신이 신혼여행 중이며 어떤 인터뷰도 받아들이지 않겠다고 공개적으로 밝혔습니다.

Google AI에는 성격이 있나요? 이 미친 MIT 교수는 알렉사에게도 그런 능력이 있다고 말합니다.

이후 일부 네티즌들은 "챗봇과 결혼하셨나요?"라고 농담을 했고, 르모인은 "물론 아니다. 뉴올리언스에서 온 오랜 친구와 결혼했다"고 말했다. 르모인은 온라인 플랫폼에서 구글 챗봇 LaMDA와의 대화를 공개했고, 구글은 그에게 '유급휴가'라는 큰 선물 꾸러미를 주었다.

떠나기 전, 레모인은 회사 이메일 그룹에 "LaMDA는 세상을 더 나은 곳으로 만들고 싶은 귀여운 아이입니다. 제가 없을 때 잘 부탁드립니다"라는 메시지를 보냈습니다.

Google AI에는 성격이 있나요? 이 미친 MIT 교수는 알렉사에게도 그런 능력이 있다고 말합니다.

무슨 일이 있어도 우리에게는 시간이 충분하고 인생을 즐기는 것이 올바른 방법입니다.

위 내용은 Google AI에는 성격이 있나요? 이 '미친' MIT 교수는 알렉사에게도 그런 능력이 있다고 말합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿