ChatGPT를 합리적으로 대하는 방법: 10년차 상징주의 학자의 심층 토론.

WBOY
풀어 주다: 2023-05-08 19:28:07
앞으로
1547명이 탐색했습니다.

지난 10년 동안 연결주의자들은 다양한 딥러닝 모델의 지원을 받아 빅데이터의 힘과 높은 컴퓨팅 파워를 활용해 인공지능 트랙의 상징주의에 앞장섰습니다.

하지만 최근 인기를 끌고 있는 ChatGPT 등 새로운 딥러닝 대형 모델이 출시될 때마다 그 강력한 성능을 칭찬한 뒤 연구 방법 자체에 대한 치열한 논의가 이뤄지고, 모델 자체의 허점과 결함도 드러나게 됩니다. .

최근 Beiming Laboratory의 Qian Xiaoyi 박사는 10년 동안 상징 학파를 고수해 온 과학자이자 기업가로서 ChatGPT 모델에 대한 비교적 차분하고 객관적인 평가를 발표했습니다.

전체적으로 ChatGPT는 획기적인 이벤트라고 생각합니다.

사전 훈련 모델은 1년 전부터 강력한 효과를 보이기 시작했습니다. 이번에는 새로운 수준에 도달하여 더 많은 관심을 끌었습니다. 이 이정표 이후에는 인간 자연어와 관련된 많은 작업 모델이 변경되기 시작할 것입니다. 그 중 다수가 기계로 대체되었습니다.

기술은 하루아침에 이루어지지 않습니다. 과학 종사자는 단점을 보기보다는 잠재력에 더 민감해야 합니다.

상징주의와 연결주의의 경계

저희 팀이 이번에 ChatGPT에 특별한 관심을 기울이는 것은 대중이 보는 놀라운 효과 때문이 아니라 기술적 수준에서 겉보기에 놀라운 효과를 많이 이해할 수 있기 때문입니다.

우리의 감각에 실제로 영향을 미치는 것은 일부 작업이 상징적 장르와 신경적 장르 사이의 경계를 허무는 것입니다. 즉, ChatGPT는 자체 코딩 및 코드 평가와 같은 여러 작업에서 이러한 능력을 구현하는 것 같습니다.

ChatGPT를 합리적으로 대하는 방법: 10년차 상징주의 학자의 심층 토론.

우리는 문제를 해결하는 방법, 문제의 원인을 분석하는 방법, 도구를 만드는 방법 등 인간의 강력한 논리적 지능을 재현하는 데 상징 학교가 능숙하다고 항상 믿어 왔습니다. 연결주의는 본질적으로 통계적 유형입니다. 충분한 인간 대화를 통해 다음 문장에서 말할 내용의 패턴을 찾는 등, 설명 텍스트를 통해 해당 이미지 인식 및 생성 패턴을 찾는 등 샘플에서 원활한 패턴을 찾는 데 알고리즘이 사용됩니다...

이러한 기능을 이해하면 더 큰 모델, 더 높은 품질의 데이터, 강화 학습 루프 개선을 통해 뛰어난 성과를 낼 수 있습니다.

우리는 인간이 모든 성찰적 인지 과정, 지식 학습 및 적용 과정, 수많은 성찰적 사고, 행동, 표현 패턴, 성찰적 동기, 감정 등 상징적 및 신경적 기술 경로의 특성을 모두 갖고 있다고 믿습니다. 상징적 표현을 기반으로 체계적으로 해석하고 재현하기 쉽습니다.

외국인 얼굴을 많이 보면 외국 얼굴을 인식할 수 있는 능력이 생기고 그 이유를 설명할 수 없게 됩니다.

첫 번째 TV 시리즈를 보고 나면 자연스럽게 남자 주인공의 연설을 흉내낼 수 있는 능력이 생길 것입니다. 충분한 대화를 경험한 후에 생각 없이 대화를 나눌 수 있는 것은 모두 신경학적 특성입니다.

강력한 논리적인 부분을 뼈가 자라는 것에 비유하고, '비논리적인 법칙 파악 능력'을 살이 자라는 것에 비유할 수 있습니다.

"골격 성장"이라는 상징의 능력으로 "살을 성장"하는 것도 어렵고, "살을 성장"하는 능력으로 신경에도 "골격을 성장"시키는 것도 어렵습니다.

AI 구축 과정에 동행하는 것처럼 기호 시스템도 대화 상대 정보의 구체적인 차원을 파악하고, 그 뒤에 숨은 의도를 분석하고, 관련 이벤트를 추론하고, 정확한 제안을 제공하는 데는 능숙하지만 생성하는 데는 능숙하지 않습니다. 부드럽고 자연스러운 대화.

또한 GPT로 대표되는 대화 생성 모델은 원활한 대화를 만들 수 있지만 장기 기억을 사용하여 일관된 동료애를 형성하고 합리적인 정서적 동기를 생성하며 일정한 깊이의 논리적 추론을 완성하여 분석 제안을 제공한다는 것을 확인했습니다. 이러한 측면을 깨닫는 것은 어렵습니다.

대형 모델의 "크기"는 장점이 아니라 표면 데이터에 내재된 강력한 논리 기반 규칙의 일부를 파악하기 위해 통계 알고리즘이 지불하는 대가입니다. 이는 기호와 신경 사이의 경계를 구현합니다.

ChatGPT의 원리를 더 깊이 이해한 후, 우리는 상대적으로 간단한 논리 연산만을 정규 훈련 생성으로 간주하고 원래 통계 알고리즘의 범위, 즉 시스템 소비를 벗어나지 않는다는 것을 발견했습니다. .논리적 작업의 깊이가 증가함에 따라 기하학적으로 계속 증가합니다.

그런데 왜 ChatGPT가 원래 대형 모델의 한계를 뛰어넘을 수 있을까요?

ChatGPT가 일반 대형 모델의 기술적 한계를 돌파하는 방법

ChatGPT가 다른 대형 모델의 한계를 돌파하는 원리를 비기술적인 언어로 설명하겠습니다.

GPT3는 등장과 동시에 다른 대형 모델을 능가하는 경험을 선보였습니다. 이는 자기 감독, 즉 데이터의 자기 라벨링과 관련이 있습니다.

여전히 대화 생성을 예로 들면, 60라운드의 대화와 다음 문장의 규칙을 마스터하기 위해 대규모 데이터로 대형 모델을 훈련했습니다.

왜 이렇게 많은 데이터가 필요한가요? 인간은 왜 TV 시리즈를 보고 남자 주인공의 말을 흉내낼 수 있을까?

인간은 다음 문장에서 말할 내용의 규칙을 파악하기 위해 이전 단계의 대화를 입력으로 사용하지 않기 때문에 대신 주관적인 대화 과정에서 맥락, 즉 화자의 성격, 어떤 종류에 대한 이해를 형성합니다. 그가 가지고 있는 현재의 감정과 동기, 어떤 종류의 지식과 연관될 수 있는지, 그리고 다음 문장에서 말할 내용의 규칙을 파악하기 위한 이전의 여러 라운드 라운드.

대형 모델이 먼저 대화의 문맥 요소를 식별한 후 이를 사용하여 다음 문장의 규칙을 생성하면 원래 대화를 사용하는 것에 비해 동일한 효과를 달성하는 데 필요한 데이터 요구 사항을 크게 줄일 수 있다고 상상할 수 있습니다. . 따라서 자기감시가 얼마나 잘 이루어지는가는 대형 모델의 '모델 효율성'에 영향을 미치는 중요한 요소이다.

대규모 모델 서비스가 훈련 중에 특정 유형의 상황 정보에 자체 레이블을 붙였는지 여부를 조사하려면 대화 생성이 이러한 유형의 상황 정보에 민감한지(생성된 대화가 이 상황 정보를 반영하는지 여부)를 검토하여 판단할 수 있습니다.

원하는 출력에 대한 인간의 글쓰기가 두 번째로 중요한 포인트입니다.

ChatGPT는 여러 유형의 작업에서 수동으로 작성된 출력을 사용하여 대화 생성의 일반적인 규칙을 학습한 GPT3.5의 대형 모델을 미세 조정합니다.

이것이 사전 훈련된 모델의 정신입니다. 닫힌 장면의 대화 규칙은 실제로 인간 대화 생성의 일반 규칙의 99% 이상을 반영할 수 있는 반면 장면별 규칙은 1% 미만입니다. 따라서 인간 대화의 일반적인 규칙을 파악하기 위해 학습된 대형 모델과 닫힌 장면에 대한 추가 소형 ​​모델을 사용하여 효과를 얻을 수 있으며 장면의 특정 규칙을 학습하는 데 사용되는 샘플은 매우 작을 수 있습니다.

ChatGPT를 합리적으로 대하는 방법: 10년차 상징주의 학자의 심층 토론.

다음 메커니즘은 ChatGPT가 강화 학습을 통합한다는 것입니다. 전체 프로세스는 대략 다음과 같습니다.

준비 시작: 사전 훈련된 모델(GPT-3.5), 훈련된 작업자 그룹, 일련의 프롬프트(다수 사용자의 사용 과정 및 랩 설계에서 수집된 명령 또는 질문)입니다.

1단계: 다수의 프롬프트를 무작위로 샘플링하고 데이터 직원(실험실 직원)이 프롬프트를 기반으로 표준화된 응답을 제공합니다. 데이터 과학자는 GPT-3.5에 프롬프트를 입력하고 모델의 출력을 참조하여 표준 답변을 제공할 수 있습니다.

이 방법을 통해 데이터가 수집될 수 있으며, 많은 양의 데이터가 데이터 세트를 구성합니다.

이 데이터 세트를 기반으로 지도 학습을 통해 GPT-3.5 모델을 미세 조정한 후 얻은 모델을 임시로 GPT-3.X라고 합니다.

2단계: 일부 프롬프트를 무작위로 샘플링하고(대부분은 1단계에서 샘플링됨) 각 프롬프트에 대해 GPT-3.X를 통해 K개의 답변(K>=2)을 생성합니다.

Laber는 K개의 답변을 정렬하고, 정렬된 대량의 비교 데이터가 데이터 세트를 구성할 수 있으며, 이 데이터 세트를 기반으로 채점 모델을 학습할 수 있습니다.

3단계: 강화학습 전략 PPO를 사용하여 GPT-3.X와 채점 모델을 반복적으로 업데이트하고 최종적으로 전략 모델을 얻습니다. GPT-3.X는 정책 모델의 매개변수를 초기화하고, 1단계와 2단계에서 샘플링되지 않은 일부 프롬프트를 샘플링하고, 정책 모델을 통해 출력을 생성하고, 채점 모델을 통해 출력을 채점합니다.

점수에 의해 생성된 정책 그라데이션을 기반으로 정책 모델의 매개변수를 업데이트하여 보다 유능한 정책 모델을 얻습니다.

강력한 정책 모델을 2단계에 참여시키고, laber sorting과 Annotation을 통해 새로운 데이터 세트를 획득하고 업데이트하여 보다 합리적인 채점 모델을 얻습니다.

업데이트된 채점 모델이 3단계에 참여하면 업데이트된 전략 모델을 획득하게 됩니다. 2단계와 3단계를 반복적으로 수행하여 최종 정책 모델은 ChatGPT입니다.

위 언어에 익숙하지 않은 경우 이해하기 쉬운 비유는 다음과 같습니다. 이는 ChatGPT에 무술을 배우라고 요청하는 것과 같습니다. GPT3.5는 무술 애호가의 루틴입니다. 그리고 득점 신경망은 각 게임에서 누가 더 나은 성적을 냈는지 ChatGPT에 알려주는 평가자입니다.

그래서 ChatGPT는 처음으로 휴먼 마스터와 GPT3.5의 비교를 관찰하고 GPT3.5를 기반으로 휴먼 마스터 방향으로 조금 개선한 후 진화된 ChatGPT가 무술 매니아로 참여할 수 있도록 할 수 있습니다. 인간 마스터와 비교하면 점수 신경망은 다시 한 번 격차가 어디에 있는지 알려주므로 다시 좋아질 수 있습니다.

이것과 기존 신경망의 차이점은 무엇인가요?

전통적인 신경망은 신경망이 인간 고수를 직접 모방할 수 있도록 허용했지만, 이번 새로운 모델은 신경망이 이미 실력이 뛰어난 무술 애호가와 고수의 차이를 파악하여 기존 신경망을 기반으로 구축할 수 있도록 하는 것입니다. 인간 마스터의 지시에 따라 작은 조정, 지속적인 개선이 이루어집니다.

이런 방식으로 생성된 대형 모델은 인간이 라벨링한 샘플을 성능 한계로 삼는다는 것을 위의 원리에서 알 수 있습니다.

즉, 인간이 라벨을 붙인 샘플의 반응 패턴을 한계까지 마스터할 뿐 새로운 반응 패턴을 생성하는 능력은 없습니다. 둘째, 통계 알고리즘으로서 샘플 품질은 모델의 정확도에 영향을 미칩니다. 이는 검색 및 상담 시나리오에서 ChatGPT의 치명적인 결함입니다.

유사 건강 상담에 대한 요구 사항은 엄격하여 이러한 유형의 모델이 독립적으로 완료되는 데 적합하지 않습니다.

ChatGPT에 구현된 코딩 기능과 코드 평가 기능은 수많은 코드, 코드 설명 주석 및 github의 수정 기록에서 비롯됩니다. 이는 여전히 통계 알고리즘의 범위 내에 있습니다.

ChatGPT가 보내는 좋은 신호는 실제로 "모델 효율성"을 향상시키기 위해 "인간 집중" 및 "강화 학습"과 같은 더 많은 아이디어를 사용할 수 있다는 것입니다.

"빅"은 더 이상 모델 기능과 연결된 유일한 지표가 아닙니다. 예를 들어 13억 개의 매개변수가 있는 InstructGPT가 175억 개의 매개변수가 있는 GPT-3보다 낫습니다.

그럼에도 불구하고 훈련을 위한 컴퓨팅 리소스 소비는 대형 모델의 임계값 중 하나일 뿐이며 고품질 및 대규모 데이터가 뒤따르기 때문에 초기 비즈니스 패턴은 여전히 ​​​​대규모 제조업체가 대규모 모델에 인프라 구축을 제공하는 것입니다. 모델, 소규모 회사 공장에서는 이를 기반으로 슈퍼 애플리케이션을 만듭니다. 그러면 거대하게 된 작은 공장들은 그들만의 대형 모델을 훈련시키게 될 것입니다.

상징과 신경의 결합

저희는 "뼈"에 "고기"를 훈련시키는 것과 "뼈"에 "고기"를 사용하는 두 가지 점에서 상징과 신경의 결합의 잠재력이 반영된다고 믿습니다.

이전의 대화 훈련 예시처럼 표면 샘플 아래에 강력한 논리적 맥락(뼈)이 있는 경우 문맥적 요소는 뼈이며, 단순히 표면 샘플의 뼈를 포함하는 규칙을 훈련하는 것은 매우 비용이 많이 듭니다. 이는 샘플에 반영됩니다. 수요와 더 높은 모델 훈련 비용, 즉 대형 모델의 "더 큰" 것입니다.

상징 시스템을 사용하여 컨텍스트를 생성하고 이를 신경망에 대한 샘플 입력으로 사용한다면, 이는 강력한 논리적 인식의 배경 조건에서 패턴을 찾고 "뼈"에 "고기"를 훈련하는 것과 같습니다.

대규모 모델이 이런 방식으로 훈련되면 해당 모델의 출력은 강력한 논리적 조건에 민감하게 됩니다.

예를 들어 대화 생성 작업에서는 대화에 참여하는 양측의 현재 감정, 동기, 관련 지식 및 관련 이벤트를 입력합니다. 대형 모델에서 생성된 대화는 이러한 상황 정보에 대한 반응을 반영할 수 있습니다. 특정 확률. 이것은 강력한 논리의 "뼈"에 "고기"를 사용하는 것입니다.

이전에는 동반자 수준 AI 개발에서 기호가 원활한 대화를 만들 수 없다는 문제에 직면했습니다. 사용자가 AI와 대화하기를 꺼리면 AI 뒤에 있는 모든 논리와 감정 능력이 발휘될 수 없으며, 지속적인 최적화와 반복을 위한 조건은 없습니다. 위의 내용을 사전 훈련된 모델과 결합하여 대화의 부드러움을 해결합니다.

대형 모델의 관점에서 보면 단순히 대형 모델로 AI를 생성하는 것만으로는 무결성과 입체성이 부족합니다.

"전체적"은 주로 대화 생성에서 맥락 관련 장기 기억을 고려하는지 여부에 반영됩니다.

예를 들어 전날 AI와 사용자 간의 채팅에서 사용자가 감기에 걸렸는지, 병원에 갔는지, 다양한 증상이 있는지, 다음날 얼마나 지속되었는지에 대해 이야기했습니다...; 사용자가 갑자기 "목이 아프다"고 표현했습니다.

간단한 대형 모델에서는 AI가 문맥에 맞는 내용에 반응해 "목이 왜 아프세요?", "병원에 가셨나요?"라고 표현합니다... 이러한 표현은 즉시 장기 기억과 충돌합니다. , 장기 기억 불일치를 반영합니다.

AI는 기호 시스템과 결합하여 "사용자가 다음 날에도 여전히 목이 아프다"에서 "사용자가 어제 감기에 걸렸습니다", "사용자가 병원에 ​​다녀왔습니다", "사용자가 다른 일을 했습니다"까지 연관시킬 수 있습니다. 증상"... 이 정보를 맥락에 넣어 대규모 모델의 맥락 일관성 능력을 사용하여 장기 기억의 일관성을 반영할 수 있습니다.

AI의 집착 여부에는 '입체감'이 반영됩니다.

우리도 인간처럼 자신의 감정, 동기, 생각에만 집착하는지. 단순한 대형 모델로 만든 AI는 사교 활동을 할 때 무작위로 사람에게 술을 덜 마시라고 상기시키겠지만, 기호 체계와 결합하면 사용자의 간이 장기 기억에 좋지 않다는 것을 알게 되고, 일반 사용자의 간이 좋지 않아 술을 마실 수 없다는 것을 감지하면 사용자가 술을 마시지 못하도록 강력하고 지속적인 메시지가 생성됩니다. 사용자가 사교 활동을 한 후에 술을 마시는지 여부를 추적하는 것이 좋습니다. 기분에 영향을 주어 후속 대화에 영향을 미칩니다. 이는 입체적인 감각을 반영합니다.

빅모델은 일반 인공지능인가요?

사전 학습 모델의 구현 메커니즘으로 볼 때 통계 알고리즘의 "샘플 패턴 파악" 능력을 뛰어넘지 않고 단지 컴퓨터의 캐리어 이점을 활용하여 이 능력을 매우 높은 수준으로 끌어올립니다. 심지어 그것을 반영하기도 한다. 어떤 논리적 능력과 해결 능력에 대한 환상도 있다.

단순한 사전 훈련된 모델에는 인간의 창의성, 심층적인 논리적 추론 능력, 복잡한 작업 해결 능력이 없습니다.

따라서 사전 훈련된 모델은 특정 시나리오로의 저비용 마이그레이션으로 인해 어느 정도 다양성을 가지지만 제한된 기본 지능 메커니즘을 통해 상위 계층의 끊임없이 변화하는 지능 표현을 일반화하는 인간의 일반 지능은 없습니다. "

두 번째로, "발현"에 대해 이야기하고 싶습니다. 대형 모델 연구에서 연구자들은 모델 모수 척도와 데이터 척도가 특정 임계 값을 초과하면 일부 능력 지표가 급격히 증가하여 출현 효과를 나타냄을 발견합니다.

사실 추상적인 학습 기능을 갖춘 모든 시스템은 "창출"을 보여줍니다.

이것은 추상 연산의 특성과 관련이 있습니다. "개별 샘플이나 추측의 정확성에 집착하지 않고 전체 샘플이나 추측의 통계적 정확성을 기반으로 합니다."

따라서 표본 크기가 충분하고 모델이 표본의 세부 패턴 발견을 지원할 수 있을 때 갑자기 특정 능력이 형성됩니다.

반상징적 사고 프로젝트에서는 인간 아이들이 어느 정도 듣고 읽고 나면 듣기와 읽기, 말하기의 이해력이 발달하는 것처럼 상징적 AI의 언어 학습 과정도 "발현"된다는 것을 알 수 있습니다. 능력은 비약적으로 향상될 것입니다.

간단히 말하면 창발을 하나의 현상으로 간주하는 것은 괜찮지만, 메커니즘이 불분명한 모든 시스템 기능 돌연변이를 창발로 해석하는 것은 옳지 않으며, 간단한 알고리즘이 인간의 전반적인 지능과 함께 나타날 수 있다고 기대하는 것은 옳지 않습니다. 엄격한 과학적 태도.

일반 인공지능

인공지능의 개념은 거의 컴퓨터의 탄생과 함께 등장했습니다. 당시에는 인간의 지능을 컴퓨터에 이식하는 것이 단순한 아이디어였습니다. 이것이 인공지능의 최초 개념이었습니다. 지능이란 '일반 인공지능'을 뜻합니다.

인간 지능은 일반 지능이고, 이 지능 모델을 컴퓨터에 이식하는 것이 일반 인공 지능입니다.

이후 인간 지능의 메커니즘을 재현하려는 학교가 많이 등장했지만 이들 중 어느 학교도 뛰어난 결과를 내지 못했습니다. 딥마인드의 뛰어난 과학자이자 강화학습의 창시자인 리치 서튼(Rich Sutton)은 다음과 같은 강력한 관점을 표명했습니다.

지난 70년간 인공지능 연구를 통해 얻을 수 있는 가장 큰 교훈은 연구자들이 단기간에 성과를 추구하기 위해 인간의 경험과 해당 분야의 지식을 활용하는 경향이 더 크다는 점이다(인간의 메커니즘을 모방). , 장기적으로는 확장된 일반 계산 방법을 사용하는 것이 궁극적으로 효과적입니다.

오늘날 대형 모델의 뛰어난 성과는 그의 '알고리즘' 명제의 정확성을 입증하지만, '창조의 예를 따라 인간을 창조'하여 지능형 에이전트를 만드는 길이 반드시 잘못되었다는 의미는 아닙니다.

그렇다면 이전의 인간을 모방하는 학파들은 왜 잇달아 좌절을 겪었던 걸까요? 이는 인간 지능의 핵심 무결성과 관련이 있습니다.

간단히 말하면, 인간의 언어, 인지, 감정적 의사결정, 학습 능력으로 형성된 하위 시스템은 대부분의 작업 실현에서 서로를 지원하며, 어떤 하위 시스템도 독립적으로 실행될 수 없습니다.

고도로 통합된 시스템으로서 상위 수준의 외관은 여러 기본 메커니즘의 협력에서 비롯됩니다. 그 중 하나에 결함이 있는 한 이는 표면 수준 효과의 외관에 영향을 미칩니다.

인체와 마찬가지로 건강한 사람과 아픈 사람 사이에도 약간의 차이가 있을 수 있지만, 이 미묘한 병리학적 차이가 모든 차원에서 사람의 기능을 억제하는 매우 복잡한 시스템입니다.

마찬가지로 일반 인공지능의 경우 처음 99단계의 효과는 매우 제한적일 수 있습니다. 퍼즐의 마지막 조각을 완성하면 처음 99단계의 기능이 뚜렷해집니다.

이전 학파들은 인간 지능 전체의 일부를 자신들의 관점에서 보고, 인간을 모방하여 일정한 성과를 거두었지만, 이는 전체 시스템이 방출할 수 있는 에너지에 비하면 극히 일부분에 지나지 않습니다.

Process Intelligence and Human Civilization

인간의 모든 지역 지능은 컴퓨터를 능가했거나 훨씬 능가하고 있습니다. 그러나 모든 지역 지능이 컴퓨터를 능가하더라도 우리는 여전히 인간만이 문명을 창조할 수 있다고 주장할 수 있으며, 컴퓨터는 컴퓨터입니다. 그냥 도구.

왜?

문명 창조의 이면에는 인간의 다양한 지적 활동의 과정이 숨어 있는데, 이는 인류 문명이 '과정 지능'에서 비롯된다는 뜻입니다. 이는 현재 심각하게 무시되고 있는 방향이다.

"인지 과정"은 하나의 작업이 아니라 하나의 과정에서 많은 작업을 구성하는 것입니다.

예를 들어 AI가 환자의 증상을 치료하고 싶다면 '목표 해결' 작업입니다.

우선 귀인 해결로 전환해야 합니다. 이는 가능한 원인을 찾은 후, 가능한 질병이 발생했는지 확인하는 "특정 사건 해결" 작업이 됩니다. 과제로 분해되어 다른 업무로 옮겨지는데, 그 과정에서 지식이 부족하면 '지식 해결'의 과제가 됩니다.

질문, 검색, 읽기를 통해 기존 지식을 얻을 수도 있고, 통계적 인지가 상관관계를 발견한 후 더 나은 개입을 위해 그 뒤에 있는 인과관계에 대한 통찰력을 얻을 수 있습니다. 지식이 부족하여 지식의 해법으로 바뀌는 경우가 많습니다. 추측을 검증하기 위해서는 특정 사건의 발생을 해결하기 위한 실험 설계가 필요합니다...

인과관계를 파악한 후 체인을 통해 다시 목표 달성을 시도할 수 있고, 인과 체인에 개입하여 원래의 목표를 인과 체인의 이벤트 생성, 종료, 예방, 유지로 전환하여 "목표 해결"의 과정으로 돌아가게 되는데...

ChatGPT를 합리적으로 대하는 방법: 10년차 상징주의 학자의 심층 토론.

이러한 관점에서 ChatGPT와 유사한 기술은 작업을 수행하는 데 사용됩니다. 상징적인 일반 인공 지능 프레임워크는 이러한 로컬 작업 기능을 구성하여 인간과 유사한 지능 활동 프로세스를 지원합니다.

일반 인공 지능은 "인간"의 존재론입니다. 내부화된 능력과 외부화된 도구를 사용하여 작업을 완료하고 이러한 작업을 구성하여 지능적인 활동 프로세스를 지원할 수 있습니다.

인간은 강력한 군집효과를 갖고 있으며 생산성이 높은 시대의 학교는 대다수의 연구자를 끌어들일 것입니다.

기술 경로의 자연스러운 역량 경계를 독립적으로 성찰하고 거시적 수준에서 더 큰 가치가 있는 연구 방향을 독립적으로 찾는 것은 드뭅니다.

인간의 전반적인 지능을 컴퓨터에서 재현할 수 있어 기계가 컴퓨터의 캐리어 이점을 활용하여 독립적으로 인지를 탐구하고, 도구를 만들고, 문제를 해결하고, 목표를 달성하는 과정을 지원할 수 있다면, 인간의 전반적인 지능과 프로세스 지능이 이전처럼 증폭되어야만 우리는 진정으로 인공지능의 힘을 발휘하고 인류 문명을 새로운 차원으로 지원할 수 있습니다.

저자 소개

ChatGPT를 합리적으로 대하는 방법: 10년차 상징주의 학자의 심층 토론.

저자 Qian Xiaoyi 박사는 상징적인 인공 지능 과학자, 수석 엔지니어, 항저우의 고급 인증 인재, 논리 생체 공학 프레임워크의 초기 탐험가이자 첫 번째 버전의 창시자입니다. M 언어 기호 시스템의 Bei Mingxing Mou의 창립자, CEO 및 회장.

Shanghai Jiao Tong University에서 응용경제학 박사, 미국 CGU Drucker School of Business에서 금융 공학 석사, Zhu Zhejiang University의 Yau Shing-tung 수학 엘리트 클래스에서 수학과 금융 이중 학사 학위 케젠대학. 그는 11년 동안 일반 AI 분야를 연구해 왔으며, 7년 동안 엔지니어링 실무 팀을 이끌었습니다.

위 내용은 ChatGPT를 합리적으로 대하는 방법: 10년차 상징주의 학자의 심층 토론.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿