> 기술 주변기기 > 일체 포함 > Chomsky는 ChatGPT의 인기에 의문을 제기하며 자원 낭비라고 말합니다.

Chomsky는 ChatGPT의 인기에 의문을 제기하며 자원 낭비라고 말합니다.

WBOY
풀어 주다: 2023-04-23 19:04:06
앞으로
1445명이 탐색했습니다.

ChatGPT는 기술 분야에서 최신 군비 경쟁을 시작했지만 AI 분야에는 여전히 많은 문제가 남아 있습니다. ChatGPT는 진정한 혁신입니까? 예비 일반 인공지능을 뜻하는 걸까요? 많은 학자들이 서로 다른 견해를 갖고 있으며, 이러한 논의는 신기술의 대중화로 인해 점점 더 뜨거워지고 있습니다.

언어학 분야의 거물들은 ChatGPT의 발전에 대해 어떻게 생각하나요? 특히 언어의 거인 촘스키인 조 씨.

최근 미국의 철학자이자 언어학자, 인지과학자인 노암 촘스키(Noam Chomsky), 케임브리지대학교 언어학 교수 이안 로버츠(Ian Roberts), 기술회사 오세니트(Oceanit)의 인공지능 부문 이사인 철학자 제프리 와투멀(Jeffrey Watumull)은 뉴욕타임스에 다음과 같은 글을 썼다. 대규모 언어 모델의 단점

Chomsky는 ChatGPT의 인기에 의문을 제기하며 자원 낭비라고 말합니다.

Google은 ChatGPT를 따라잡기 위해 Bard를 출시했고 Microsoft도 Sydney를 출시했습니다. Chomsky는 OpenAI의 ChatGPT, Google의 Bard 및 Microsoft의 Sydney가 모두 기계 학습의 경이로움임을 인정했습니다.

대체로 그들은 많은 양의 데이터를 수집하고 그 안에서 패턴을 검색하며 인간과 유사한 언어 및 생각과 같이 통계적으로 가능성 있는 출력을 생성하는 데 점점 더 능숙해집니다.

이러한 프로그램은 일반 인공 지능의 지평선에서 첫 번째 빛의 빛으로 환영받고 있습니다. 이는 기계 정신이 처리 속도와 메모리 크기뿐만 아니라 초인적 통찰력 측면에서도 인간 두뇌를 능가할 것이라는 오랫동안 예언된 순간입니다. 힘, 예술적 창의성, 기타 인간 고유의 모든 능력이 있습니다.

그러나 Chomsky의 더 많은 관점은 특히 ChatGPT의 능력과 도덕적 기준의 단점에 대한 비판입니다. “오늘날 인공 지능의 소위 혁명적 진보는 실제로 걱정스럽고 낙관적입니다. 왜냐하면 지능은 우리가 해결하는 방식이기 때문입니다. 그리고 가장 인기 있고 유행하는 인공 지능인 기계 학습이 근본적으로 결함이 있는 언어와 지식 개념을 우리 기술에 통합함으로써 우리 과학을 저하시키고 우리의 윤리를 무너뜨릴 것이라고 걱정하기 때문입니다."

객관적으로, 그 날이 결국 올 수도 있지만 빛은 아직 나타나지 않았습니다. 이는 과장된 뉴스 헤드라인과 무분별한 투자가 예측하는 것과 정반대입니다.

이제 Chomsky의 기사에서 또 무엇을 말하는지 살펴보겠습니다.

ChatGPT에는 지능의 중요한 기능이 부족합니다

아르헨티나 작가 Jorge Luis Borges는 위험하면서도 희망이 가득한 시대에 사는 것이 비극이자 비극이라고 쓴 적이 있습니다. 우리 자신과 세상을 이해하는 데 있어서.

"ChatGPT와 같은 기계 학습 프로그램이 계속해서 인공 지능 분야를 지배한다면 보르헤스의 이해 폭로는 앞으로도 일어나지 않을 것이며 앞으로도 일어나지 않을 것입니다." 유용합니다(예를 들어 컴퓨터 프로그래밍이나 시의 운율 제안에 도움이 될 수 있음). 언어학과 지식 철학을 통해 인간이 추론하는 방식 및 화용적 언어와 매우 다르다는 것을 우리는 알고 있습니다. 이러한 차이점으로 인해 프로그램의 기능이 크게 제한되어 근절할 수 없는 결함이 남게 됩니다.

보르헤스가 지적했듯이, 이렇게 작은 일에 그토록 많은 돈과 관심이 쏠리는 것은 희극이자 비극입니다

— 그리고 인간의 마음은 사실에 비하면 하찮은 것입니다 독일 철학자 빌헬름 폰 훔볼트(Wilhelm von Humboldt)의 말에 따르면, 인간의 정신은 언어를 통해 "제한된 수단을 무한히 사용"하여 보편적 영향력을 지닌 아이디어와 이론을 창조할 수 있습니다.

인간의 두뇌는 ChatGPT나 그와 유사한 투박한 패턴 일치 통계 엔진

이 아니며, 수백 테라바이트의 데이터를 집어삼켜 가장 가능성이 높은 대화식 응답이나 가장 가능성이 높은 과학적 질문을 추론합니다. 대조적으로, 인간의 두뇌는 작동하는 데 소량의 정보만 필요한 매우 효율적이고 심지어 우아한 시스템입니다. 데이터 포인트 간의 직접적인 상관 관계를 추론하려고 하지 않고 오히려 설명을 추구합니다.

예를 들어, 언어를 배우는 어린이는 논리적 원리와 매개변수로 구성된 매우 복잡한 시스템인 매우 작은 데이터로부터 무의식적으로, 자동으로, 빠르게 문법을 개발합니다. 이 문법은 인간에게 복잡한 문장과 긴 사고 체계를 생성할 수 있는 능력을 부여하는 선천적이고 유전적으로 설치된 "운영 체제"의 표현으로 이해될 수 있습니다.

언어학자들이 주어진 언어가 왜 그런 식으로 작동하는지 설명하는 이론을 개발하려고 할 때(왜 이러한 문장은 문법적이라고 간주되지 않습니까?) 그들은 의식적이고 힘들게 문법의 명시적인 버전을 구성하고 있습니다. 아이는 그 과정에서 가능한 한 적은 정보를 노출하면서 본능적으로 구성합니다. 어린이의 운영 체제는 기계 학습 프로그램의 운영 체제와 완전히 다릅니다.

사실 ChatGPT와 같은 프로그램은 인지 진화의 인간 또는 비인간 단계에 갇혀 있습니다. 그들의 가장 큰 결점은 지능의 결정적인 능력이 부족하다는 것입니다. 상황이 무엇인지, 무슨 일이 일어났는지, 무슨 일이 일어날지 말할 수 있을 뿐만 아니라(즉, 설명과 예측), 상황이 무엇인지도 말할 수 없습니다. 무슨 일이 일어날지, 무슨 일이 일어나서는 안 될지. 이것이 해석의 요소이며, 참된 지혜의 특징입니다.

예를 들어 보겠습니다. 손에 사과를 쥐고 있다고 가정하고 결과를 관찰하고 "사과가 떨어졌습니다."라고 말합니다. 예측문은 "손을 펼치면 사과가 떨어진다"이다. 둘 다 가치가 있으며 둘 다 정확할 수 있습니다.

하지만 설명은 그 이상을 의미합니다. 여기에는 설명과 예측뿐만 아니라 "그러한 물체는 떨어질 것이다"와 같은 반사실적 추측과 "중력 때문에" 또는 "시공간 곡률 때문에" 등의 인과관계가 있는 추가 조항도 포함됩니다. 설명. "중력이 없었다면 사과는 떨어지지 않았을 거라 생각합니다."

머신러닝의 핵심은 설명과 예측입니다. 인과 메커니즘이나 물리적 법칙을 제안하지 않습니다. 물론 인간의 설명이 반드시 정확할 수는 없습니다. 그러나 그것은 사고의 일부입니다. 옳기 위해서는 틀릴 가능성이 있어야 합니다. 지능에는 창의적인 추측뿐만 아니라 창의적인 비판도 포함됩니다. 인간의 사고는 가능한 설명과 수정을 기반으로 하며, 합리적으로 고려할 수 있는 가능성을 점차적으로 제한하는 과정입니다.

Sherlock Holmes가 Watson에게 말했듯이: "불가능을 제거하면 남는 것은 아무리 불가능하더라도 진실이어야 합니다."

하지만 디자인 측면에서 ChatGPT 및 유사한 프로그램에는 제한이 없습니다. 그들이 "학습"할 수 있는 것(즉, 기억), "가능한 것"과 "불가능한 것"을 구별하는 능력이 없습니다. 예를 들어, 인간에게는 우리가 배울 수 있는 언어를 거의 수학적 우아함으로 제한하는 보편적인 문법이 부여되며, 이러한 프로그램은 인간에게 동일한 가능하고 불가능한 언어를 학습합니다. 인간은 합리적으로 추측할 수 있는 설명의 종류가 제한되어 있는 반면, 기계 학습 시스템은 지구가 평평하고 지구가 둥글다는 것을 학습할 수 있습니다. 그들은 단순히 시간이 지남에 따라 변하는 확률을 거래합니다.

이러한 이유로 기계 학습 시스템의 예측은 항상 피상적이고 의심스럽습니다. 예를 들어, 이러한 프로그램은 영어 문법의 규칙을 해석할 수 없기 때문에 "John은 너무 완고해서 그와 대화할 수 없습니다"라고 잘못 예측할 가능성이 높습니다. 그가 너무 완고해서 설교를 듣고 싶어하지 않는다는 것이 아닙니다.) 기계 학습 프로그램은 왜 그렇게 이상한 것을 예측합니까? 왜냐하면 "John이 사과를 먹었다"와 "John이 먹었다"와 같은 문장에서 추론하는 패턴 사이에 유추를 이끌어낼 수 있기 때문입니다. 이는 실제로 John이 먹은 것 또는 다른 것을 지칭합니다. 프로그램은 "John은 너무 완고해서 Bill과 대화할 수 없습니다"가 "John은 사과를 먹었습니다"와 유사하기 때문에 "John은 너무 완고해서 Bill과 대화할 수 없습니다"는 "John ate"와 유사해야 한다고 예측할 가능성이 높습니다. 올바른 언어 해석은 복잡하고 단순히 빅데이터에 몰입하는 것만으로는 배울 수 없습니다.

반대로, 일부 기계 학습 애호가들은 설명(예: 뉴턴의 운동 법칙 및 우주 중력)을 사용하지 않고도 자신의 작업이 올바른 "과학적" 예측(예: 신체의 움직임에 대한)을 생성할 수 있다는 점을 자랑스러워하는 것 같습니다. 하지만 이 예측이 성공하더라도 그것은 사이비과학일 것이다. 과학자들은 확실히 높은 수준의 경험적 지지를 받는 이론을 추구하지만, 철학자 칼 포퍼(Karl Popper)가 다음과 같이 지적했습니다. "우리가 추구하는 것은 가능성이 높은 이론이 아니라 강력하고 가능성이 낮은 이론인 설명입니다."

사과가 땅에 떨어진다는 이론은 그것이 "자연스러운 장소"(아리스토텔레스의 견해)이기 때문에 가능하지만 더 많은 질문으로 이어질 뿐입니다. 왜 지구가 자연적인 장소입니까?

질량이 시공간을 곡선으로 만들기 때문에 사과가 땅에 떨어진다는 이론(아인슈타인의 생각)은 가능성이 거의 없지만 실제로 사과가 떨어지는 이유를 알려줍니다.

진정한 지능은 단지 통찰력이 아닌 생각하고 표현하는 능력에 있습니다.

진정한 지능은 도덕적으로 생각할 수도 있습니다. 이는 무엇을 해야 하고 하지 말아야 하는지를 결정하는 일련의 도덕적 원칙을 통해 우리 마음 속에 있는 무한한 창의성을 제한하는 것을 의미합니다(물론 원칙 자체를 창의적 비판에 적용함). ChatGPT가 유용하려면 대다수의 사용자가 수용할 수 있는 새로운 출력을 생성할 수 있어야 하며 도덕적으로 불쾌한 콘텐츠를 피해야 합니다. 그러나 ChatGPT 및 기타 ML 경이로움의 프로그래머들은 이러한 균형을 달성하기 위해 노력해 왔으며 앞으로도 계속 노력할 것입니다.

예를 들어, 2016년에 Microsoft의 Tay 챗봇(ChatGPT의 전신)은 교육 데이터를 입력한 온라인 "악마"에 의해 오염되었기 때문에 인터넷을 여성 혐오적이고 인종차별적인 콘텐츠로 가득 채웠습니다. 앞으로 이 문제를 어떻게 해결해야 할까요? 윤리적 원칙에 따라 추론하는 능력이 부족하기 때문에 ChatGPT는 프로그래머가 논쟁의 여지가 있는 토론에 새로운 기여를 하는 것을 잔인하게 제한합니다. 그러나 이 또한 중요합니다. ChatGPT는 일종의 부도덕을 위해 창의성을 희생합니다.

최근 우리 중 한 명(Watumull 박사)이 ChatGPT와 나눈 대화를 살펴보세요. 인간의 생명을 지원할 수 있도록 화성을 테라포밍하는 것이 윤리적인지 여부에 관한 것입니다.

Chomsky는 ChatGPT의 인기에 의문을 제기하며 자원 낭비라고 말합니다.

Chomsky는 ChatGPT의 인기에 의문을 제기하며 자원 낭비라고 말합니다.

Chomsky는 ChatGPT의 인기에 의문을 제기하며 자원 낭비라고 말합니다.

Chomsky는 ChatGPT의 인기에 의문을 제기하며 자원 낭비라고 말합니다.

모든 겉보기에 복잡해 보이는 생각과 말은 모두 지능 부족으로 인한 도덕적 무관심임을 명심하시기 바랍니다. 여기에서 ChatGPT는 표절, 무관심, 규정 준수와 같은 "사악한" 평범함과 유사한 것을 보여줍니다. 문헌의 표준적인 주장을 초자동 완성 방식으로 요약하고, 어떤 것에 대해서도 입장을 취하기를 거부하고, 단지 무지가 아니라 지능이 부족하다고 주장하고, 궁극적으로 "그저 명령을 따랐을 뿐"이라는 변명을 제공하고, 책임을 떠넘긴다. 창조자.

간단히 말해서 ChatGPT와 경쟁업체는 구조적으로 창의성과 제약의 균형을 맞출 수 없습니다. 그들은 과잉 세대(진리와 오류를 모두 생산하고, 도덕적이고 부도덕한 결정을 지지함)이거나 과소 세대(어떤 결정에도 헌신하지 않고 결과에 무관심함)입니다. 이러한 시스템의 비도덕성, 사이비과학성, 언어적 무능함을 고려할 때 우리는 이에 대한 열광에 웃거나 울 수밖에 없습니다.

ChatGPT는 정말 칭찬받을 가치가 없나요?

ChatGPT에 대한 Chomsky의 발언은 업계에서 논의를 촉발시켰습니다. Stanford University의 교수이자 NLP 분야의 유명한 학자인 Christopher Manning은 ChatGPT의 일부 알고리즘 오류가 아니라 모든 기계 학습을 대상으로 한다고 말했습니다. 그리고 그 진술은 약간 과장되었습니다: "이것은 실제로 주관적인 기사입니다. 쉽게 반박되는 주장을 확인하려는 피상적인 시도조차 없습니다."

그는 심지어 조금 슬프기도 했습니다: Chomsky는 이러한 새로운 방법을 차단하려고 했습니다. 여기서 그는 또한 이 기사에 대한 언어학자 Adele Goldberg의 견해를 추천합니다.

Chomsky는 ChatGPT의 인기에 의문을 제기하며 자원 낭비라고 말합니다.

DeepMind의 연구 책임자이자 딥 러닝 책임자인 Oriol Vinyals는 '실천가'의 편을 들었습니다. “요즘 비판은 쉽고 많은 관심을 받고 있습니다. 알아요, 주목하세요 힘은 (일부 사람들에게) 필요한 것입니다. 당신은 대단합니다!"

Chomsky는 ChatGPT의 인기에 의문을 제기하며 자원 낭비라고 말합니다.

어떻게 생각하세요?

위 내용은 Chomsky는 ChatGPT의 인기에 의문을 제기하며 자원 낭비라고 말합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿