목차
프롬프트 튜닝의 제한 주소 스케일로, 접두사 튜닝은 다양한 레이어에 훈련 가능한 프롬프트 임베딩을 추가하여 다른 수준에서 작업 별 학습을 허용합니다.
기술 주변기기 일체 포함 REFT가 필요한 모든 것이 있습니까?

REFT가 필요한 모든 것이 있습니까?

Feb 25, 2025 pm 07:49 PM

Reft : LLMS를 미세 조정하는 혁신적인 접근

스탠포드의 2024 년 5 월 논문에 소개 된 Reft (표현 조정)는 LLMS (Lange Language Models)를 효율적으로 미세 조정하기위한 획기적인 방법을 제공합니다. Oxen.ai의 2024 년 7 월 실험 미세 조정 LLAMA3 (8B)에 의해 단 14 분 만에 단일 NVIDIA A10 GPU에 의해 그 잠재력이 즉시 명백 해졌다. 모델 가중치 또는 입력을 수정하는 LORA와 같은 기존 매개 변수 효율적인 미세 조정 (PEFT) 메소드와 달리 DII (Displeed Interchange Intervention) 방법을 활용합니다. DII 프로젝트는 저 차원 하위 ​​공간에 포함 되어이 부분 공간을 통해 미세 조정을 가능하게합니다. 이 기사는 먼저 인기있는 PEFT 알고리즘 (LORA, 프롬프트 튜닝, 접두사 튜닝)을 검토 한 다음 REFT와 실험 결과를 탐구하기 전에 DII를 설명합니다.

파라미터 효율적인 미세 조정 (PEFT) 기술

껴안는 얼굴은 PEFT 기술에 대한 포괄적 인 개요를 제공합니다. 핵심 방법을 간단히 요약하겠습니다 : Lora (저 순위 적응) :

2021 년에 도입 된 Lora의 단순성과 일반화는 미세 조정 LLM 및 확산 모델을위한 주요 기술이되었습니다. LORA는 모든 레이어 가중치를 조정하는 대신 저 순위의 매트릭스를 추가하여 훈련 가능한 매개 변수 (종종 0.3%미만)를 크게 줄이고 교육을 가속화하고 GPU 메모리 사용을 최소화합니다.

프롬프트 튜닝 : 이 방법은 "소프트 프롬프트"-문화 가능한 작업 별 임베딩을 접두사로 사용하여 각 작업의 모델을 복제하지 않고 효율적인 멀티 태스킹 예측을 가능하게합니다.

.

Is ReFT All We Needed?

접두사 튜닝 (p-tuning v2) :

프롬프트 튜닝의 제한 주소 스케일로, 접두사 튜닝은 다양한 레이어에 훈련 가능한 프롬프트 임베딩을 추가하여 다른 수준에서 작업 별 학습을 허용합니다.

.

이 논문에서 찾을 수 있습니다. 분산 인터체인지 개입 (DII) DII는 인과 적 추상화에 뿌리를두고 있으며, 높은 수준 (인과 관계) 모델과 낮은 수준 (신경망) 모델 사이의 중재를 사용하여 정렬을 평가하는 프레임 워크입니다. DII는 두 모델을 직교 예측을 통해 서브 스페이스로 투영하여 회전 작업을 통해 중재 모델을 만듭니다. 자세한 시각적 예제는 DII 프로세스는 수학적으로 다음과 같이 표현 될 수 있습니다

여기서

여기서 Is ReFT All We Needed?는 직교 예측을 나타내며, 분산 정렬 검색 (DAS)은 예상 반 상점 출력의 확률을 최대화하여 중재 후 하위 공간을 최적화합니다. reft - 표현 FINETUNING

REFT는 저 차원 공간 내에서 모델의 숨겨진 표현에 개입합니다. 아래 그림은 층 L에 적용되는 중재 (PHI)를 보여줍니다.

R loreft (저급 선형 서브 스페이스 reft)가 배운 예상 출처를 소개합니다.

여기서

는 숨겨진 표현이며,

에 의해 걸려있는 저 차원 공간에서 Is ReFT All We Needed? 편집

편집입니다. 신경 네트워크 계층으로의 Loreft 통합은 다음과 같습니다.

LLM 미세 조정 중에 LLM 매개 변수는 동결 상태로 유지되며, 투사 매개 변수 () 만 훈련됩니다. 실험 결과

원래의 REFT 용지는 다양한 벤치 마크에서 전체 미세 조정 (FT), LORA 및 접두사 튜닝에 대한 비교 실험을 제시합니다. REFT 기술은 기존 방법을 지속적으로 능가하여 탁월한 성능을 달성하면서 매개 변수를 90% 이상 줄입니다. Is ReFT All We Needed?

토론 REFT의 호소는 다양한 벤치 마크에서 Llama-Family Models와 인과 추상화의 근거가있는 Llama-Family 모델에 대한 우수한 성능에서 비롯되며, 이는 모델 해석 가능성을 돕습니다. REFT는 뉴런에 걸쳐 분포 된 선형 서브 스페이스가 수많은 작업을 효과적으로 제어 할 수 있음을 보여줍니다.

참조

Wu et al., Reft : 언어 모델에 대한 표현 미세 조정

위 내용은 REFT가 필요한 모든 것이 있습니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

뜨거운 기사 태그

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

MCP (Model Context Protocol) 란 무엇입니까? MCP (Model Context Protocol) 란 무엇입니까? Mar 03, 2025 pm 07:09 PM

MCP (Model Context Protocol) 란 무엇입니까?

Omniparser V2 및 Omnitool을 사용하여 지역 비전 에이전트 구축 Omniparser V2 및 Omnitool을 사용하여 지역 비전 에이전트 구축 Mar 03, 2025 pm 07:08 PM

Omniparser V2 및 Omnitool을 사용하여 지역 비전 에이전트 구축

REPLIT 에이전트 : 실제 예제가있는 가이드 REPLIT 에이전트 : 실제 예제가있는 가이드 Mar 04, 2025 am 10:52 AM

REPLIT 에이전트 : 실제 예제가있는 가이드

활주로 ACT-One Guide : 나는 그것을 테스트하기 위해 스스로 촬영했다 활주로 ACT-One Guide : 나는 그것을 테스트하기 위해 스스로 촬영했다 Mar 03, 2025 am 09:42 AM

활주로 ACT-One Guide : 나는 그것을 테스트하기 위해 스스로 촬영했다

Elon Musk & Sam Altman은 5 천억 달러 이상의 Stargate 프로젝트를 충돌시킵니다. Elon Musk & Sam Altman은 5 천억 달러 이상의 Stargate 프로젝트를 충돌시킵니다. Mar 08, 2025 am 11:15 AM

Elon Musk & Sam Altman은 5 천억 달러 이상의 Stargate 프로젝트를 충돌시킵니다.

DeepSeek은 3FS 및 Smallpond 프레임 워크를 릴리스합니다 DeepSeek은 3FS 및 Smallpond 프레임 워크를 릴리스합니다 Mar 03, 2025 pm 07:07 PM

DeepSeek은 3FS 및 Smallpond 프레임 워크를 릴리스합니다

나는 Cursor AI와 함께 Vibe 코딩을 시도했는데 놀랍습니다! 나는 Cursor AI와 함께 Vibe 코딩을 시도했는데 놀랍습니다! Mar 20, 2025 pm 03:34 PM

나는 Cursor AI와 함께 Vibe 코딩을 시도했는데 놀랍습니다!

5 Grok 3 3을 쉽게 만들 수있는 프롬프트 5 Grok 3 3을 쉽게 만들 수있는 프롬프트 Mar 04, 2025 am 10:54 AM

5 Grok 3 3을 쉽게 만들 수있는 프롬프트

See all articles