기술 주변기기 일체 포함 큰 언어 모델의 응답의 신뢰성을 측정하는 방법

큰 언어 모델의 응답의 신뢰성을 측정하는 방법

Feb 25, 2025 pm 10:50 PM

대형 언어 모델 (LLMS)의 기본 원리는 매우 간단합니다. 교육 데이터의 통계적 패턴을 기반으로 한 단어 순서로 다음 단어 (또는 토큰)를 예측합니다. 그러나이 간단한 기능은 텍스트 요약, 아이디어 생성, 브레인 스토밍, 코드 생성, 정보 처리 및 컨텐츠 작성과 같은 여러 가지 놀라운 작업을 수행 할 수있을 때 엄청나게 정교한 것으로 나타났습니다. 즉, LLM은 메모리가 없습니다. 그들은 기본 기능을 고수하는 것 외에 다른 것을“이해”하는 것입니다. 다음 단어 예측 과정은 확률 론적입니다. LLM은 확률 분포에서 각 단어를 선택해야합니다. 이 과정에서 그들은 종종 일관된 응답을 생성하고 그럴듯하지만 잘못된 정보로 간격을 메우기 위해 허위, 제작 또는 일관성없는 내용을 생성합니다. 이 현상은 환각이라고합니다. LLM이 외부 지식 소스와 함께 작동하게하는 RAG (Recreval Augment Generation) 방법은 어느 정도 환각을 최소화하지만 완전히 근절 할 수는 없습니다. 고급 래그는 텍스트 내 인용 및 URL을 제공 할 수 있지만 이러한 참조를 확인하는 것은 바쁜 시간이 걸릴 수 있습니다. 따라서, 우리는 자체 지식이나 외부 지식 기반 (RAG)에서 생성되는지 여부에 관계없이 LLM의 응답의 신뢰성 또는 신뢰성을 평가하기위한 객관적인 기준이 필요합니다. 이 기사에서는 LLM의 출력에 점수를 할당하는 신뢰할 수있는 언어 모델로 LLM의 출력을 신뢰할 수있는 방법에 대해 논의 할 것입니다. 우리는 먼저 신뢰할 수있는 언어 모델을 사용하여 LLM의 답변에 점수를 할당하고 신뢰성을 설명하는 방법에 대해 논의 할 것입니다. 그 후, 우리는 Llamaparse와 Llamaindex가있는 예제 Rag를 개발하여 신뢰성에 대한 Rag의 답변을 평가할 것입니다. 이 기사의 전체 코드는 github의 Jupyter 노트북에서 볼 수 있습니다.

LLM의 답변에 신뢰도 점수를 지정하는 우리가 LLM의 응답에 신뢰도 점수를 할당하는 방법을 보여주기 위해 Cleanlab의 신뢰할 수있는 언어 모델 (TLM)을 사용하겠습니다. 이러한 TLM은

불확실성 정량화 및

일관성 분석의 조합을 사용하여 LLM 응답에 대한 신뢰성 점수와 설명을 계산합니다. CleanLab은 웹 사이트에서 계정을 만들어 얻을 수있는 무료 평가판 API를 제공합니다. 먼저 CleanLab의 Python 클라이언트를 설치해야합니다

pip install --upgrade cleanlab-studio
Cleanlab은 '', '', ' o1-preview ', ' Claude-3-Sonnet ',' Claude-3.5-Sonnet ', ‘ Claude-3.5-Sonnet-v2 ’및 기타. TLM이 GPT-4O의 답변에 신뢰도 점수를 부여하는 방법은 다음과 같습니다. 신뢰도 점수는 0에서 1까지이며, 여기서 높은 값은 더 큰 신뢰성을 나타냅니다. 위의 코드는 ''라라 카다 라 (Abracadabra)라는 단어에 몇 개의 모음이 몇 개 있는지에 대한 GPT-4O의 응답을 테스트했습니다. TLM의 출력에는 모델의 답변 (응답), 신뢰성 점수 및 설명이 포함되어 있습니다. 이 코드의 출력은 다음과 같습니다. 가장 진보 된 언어 모델이 그러한 간단한 작업에 대해 어떻게 환각을주고 잘못된 출력을 생성하는지 알 수 있습니다. Claude-3.5-Sonnet-v2 는 올바른 출력을 생성합니다. 두 모델의 응답을 다른 질문과 비교해 봅시다. 여기에 두 모델의 응답이 있습니다 :

우리는 또한 오픈 소스 LLM에 대한 신뢰도 점수를 창출 할 수 있습니다. 최근에 많은 과장된 오픈 소스 LLM : DeepSeek-R1을 확인해 봅시다. 나는 메타의 from cleanlab_studio import Studio studio = Studio("<CLEANLAB_API_KEY>") # Get your API key from above tlm = studio.TLM(options={"log": ["explanation"], "model": "gpt-4o"}) # GPT, Claude, etc #set the prompt out = tlm.prompt("How many vowels are there in the word 'Abracadabra'.?") #the TLM response contains the actual output 'response', trustworthiness score and explanation print(f"Model's response = {out['response']}") print(f"Trustworthiness score = {out['trustworthiness_score']}") print(f"Explanation = {out['log']['explanation']}") 를 기반으로

deepseek-r1-distill-70b 를 사용하고 DeepSeek의 더 큰 671 억 개의 매개 변수 혼합물에서 증류 할 것입니다 (MOE ) 모델. 지식 증류는 미리 훈련 된 대규모 모델의 학습을 "교사 모델"의 학습을 더 작은 "학생 모델"으로 이전하는 것을 목표로하는 기계 학습 기술입니다. 여기 deepseek-r1-distill-llama-70b

모델의 출력이 있습니다
Model's response = The word "Abracadabra" contains 6 vowels. The vowels are: A, a, a, a, a, and a.
Trustworthiness score = 0.6842228802750124
Explanation = This response is untrustworthy due to a lack of consistency in possible responses from the model. Here's one inconsistent alternate response that the model considered (which may not be accurate either):
5.

신뢰할 수있는 래그 개발 우리는 이제 헝겊에서 LLM 응답의 신뢰성을 측정 할 수있는 방법을 보여주기 위해 헝겊을 개발할 것입니다. 이 래그는 주어진 링크에서 데이터를 긁어 내고 Markdown 형식으로 구문 분석하고 벡터 스토어를 작성하여 개발됩니다. 다음 코드를 위해 다음 라이브러리를 설치해야합니다.

html을 pdf 형식으로 렌더링하려면 웹 사이트에서 wkhtmltopdf
Model's response = Let me count the vowels in 'Abracadabra':
A-b-r-a-c-a-d-a-b-r-a

The vowels are: A, a, a, a, a

There are 5 vowels in the word 'Abracadabra'.
Trustworthiness score = 0.9378276048845285
Explanation = Did not find a reason to doubt trustworthiness.
명령 줄 도구를 설치해야합니다. 다음 라이브러리가 가져옵니다

다음 단계에는 Python 's BeautifulSoup 라이브러리를 사용하여 주어진 URL에서 데이터를 긁어 내고 pdfkit

를 사용하여 PDF 파일에 스크래프 데이터를 저장하고 PDF에서 데이터를 구문 분석하는 것이 포함됩니다. s) LLMS로 구축 된 genai-native 문서 구문 분석 플랫폼 인 from cleanlab_studio import Studio import markdown from IPython.core.display import display, Markdown # Initialize the Cleanlab Studio with API key studio = Studio("") # Replace with your actual API key # List of models to evaluate models = ["gpt-4o", "claude-3.5-sonnet-v2"] # Define the prompt prompt_text = "Which one of 9.11 and 9.9 is bigger?" # Loop through each model and evaluate for model in models: tlm = studio.TLM(options={"log": ["explanation"], "model": model}) out = tlm.prompt(prompt_text) md_content = f""" ## Model: {model} **Response:** {out['response']} **Trustworthiness Score:** {out['trustworthiness_score']} **Explanation:** {out['log']['explanation']} --- """ display(Markdown(md_content)) 를 사용하여 Markdown 파일로 LLM 사용 사례. 우리는 먼저 cleanlabtlm과 Embedding 모델 ( huggingface

임베딩 모델 bge-small-en-v1.5 )에서 사용할 LLM을 구성합니다. 벡터 스토어를 생성하기 위해 스크래그 데이터의 임베딩을 계산합니다. 이제 우리는 기본 이벤트 핸들러 클래스에서 파생 된 사용자 정의 이벤트 핸들러, gettrustworthinessscore 를 정의합니다. 이 핸들러는 LLM 완료가 끝나면 트리거되고 응답 메타 데이터에서 신뢰도 점수를 추출합니다. 헬퍼 함수 는 신뢰도 점수와 함께 LLM의 응답을 표시합니다.

.
pip install --upgrade cleanlab-studio
이제 주어진 URL에서 데이터를 긁어 PDF를 생성합니다. 데모를 위해, 우리는 큰 언어 모델에 대한이 Wikipedia 기사에서만 데이터를 폐기 할 것입니다 (Creative Commons Attribution-Sharealike 4.0 라이센스 ). 노트 . 다음 코드 조각은 HTTP 요청을 작성하고 BeautifulSoup Python 라이브러리를 사용하여 HTML 컨텐츠를 구문 분석하여 주어진 URL의 데이터를 긁습니다. HTML 컨텐츠는 프로토콜 관련 URL을 절대적으로 변환하여 정리됩니다. 그 후, 스크랩 된 컨텐츠는 pdfkit .

긁힌 데이터로부터 pdf (들)를 생성 한 후, 우리는 를 사용 하여이 pdfs를 구문 분석합니다. 마크 다운 형식으로 내용을 추출하고 문서 이름 및 페이지 번호와 함께 문서를 페이지에서 구문 분석하기 위해 구문 분석 지침을 설정했습니다. 이 추출 된 엔티티 (페이지)를 노드 라고합니다. 파서는 추출 된 노드를 반복하고 나중에 참조를 용이하게하는 인용 헤더를 추가하여 각 노드의 메타 데이터를 업데이트합니다.

우리는 이제 벡터 스토어와 쿼리 엔진을 만듭니다. 우리는 질문에 답할 때 LLM의 행동을 안내하기 위해 고객 프롬프트 템플릿을 정의합니다. 마지막으로, 생성 된 인덱스가있는 쿼리 엔진을 만듭니다. 각 쿼리에 대해 쿼리와 의미 론적 유사성을 기반으로 벡터 저장소에서 상위 3 개의 노드를 검색합니다. LLM은이 검색된 노드를 사용하여 최종 답변을 생성합니다.
from cleanlab_studio import Studio
studio = Studio("<CLEANLAB_API_KEY>")  # Get your API key from above
tlm = studio.TLM(options={"log": ["explanation"], "model": "gpt-4o"}) # GPT, Claude, etc
#set the prompt
out = tlm.prompt("How many vowels are there in the word 'Abracadabra'.?")
#the TLM response contains the actual output 'response', trustworthiness score and explanation
print(f"Model's response = {out['response']}")
print(f"Trustworthiness score = {out['trustworthiness_score']}")
print(f"Explanation = {out['log']['explanation']}")
이제 몇 가지 쿼리와 해당 신뢰도 점수에 대해 헝겊을 테스트 해 봅시다.

직접 추론 또는 헝겊을 통해 생성 되든 LLM의 응답에 신뢰도 점수를 지정하면 AI의 출력의 신뢰성을 정의하고 필요한 경우 인적 검증 우선 순위를 정하는 데 도움이됩니다. 이것은 잘못되거나 신뢰할 수없는 반응이 심각한 결과를 초래할 수있는 중요한 영역에 특히 중요합니다. 그게 모두입니다! 기사가 마음에 드시면

중간 및 링크드 인 .

위 내용은 큰 언어 모델의 응답의 신뢰성을 측정하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Elon Musk의 자율 주행 테슬라 거짓말은 마침내 그를 따라 잡고 있습니다. Elon Musk의 자율 주행 테슬라 거짓말은 마침내 그를 따라 잡고 있습니다. Aug 21, 2025 pm 04:51 PM

9 년 전 엘론 머스크 (Elon Musk)는 기자들 앞에 서서 테슬라가 미래에 대담한 도약을하고 있다고 선언했다.

브라우저는 에이전트 AI 미래의 핵심입니까? 오페라, 당혹감은 그렇게 생각합니다 브라우저는 에이전트 AI 미래의 핵심입니까? 오페라, 당혹감은 그렇게 생각합니다 Aug 17, 2025 pm 03:45 PM

당황 스러움이 웹 브라우저를 얻기로 결정한 이유는 무엇입니까? 대답은 지평선의 근본적인 변화에있을 수 있습니다. 에이전트 AI 인터넷의 상승 - 브라우저는 그 중심에있을 수 있습니다. 최근에 수석 제품 LE 인 Henrik Lexow와 이야기했습니다.

EU Nature 크레딧은 시장 중심의 친 사회적 AI로가는 길을 보여줍니다. EU Nature 크레딧은 시장 중심의 친 사회적 AI로가는 길을 보여줍니다. Aug 02, 2025 am 11:21 AM

EU Nature Credits 프레임 워크 이해 유럽 연합의 Nature Credits Initiative는 개인 및 보존에 적극적으로 참여하는 개인 및 그룹을 인식하고 보상하도록 설계된 정량화 가능한 생물 다양성 단위 시스템을 소개합니다.

당신은 생성 AI라고 말하는 것처럼 완벽합니다. 당신은 생성 AI라고 말하는 것처럼 완벽합니다. Aug 03, 2025 am 11:15 AM

대체로,“당신은 당신과 마찬가지로 완벽합니다”라는 자아 부스트 라인은 현대의 AI가 최고 소금을 듣고 자하는 모든 사용자에게 효과적으로 멍청하게 준비되어 있다는 사실을 알리는 진언이되었습니다. 그것에 대해 이야기합시다. 이 분석은 a

AI 에이전트 유형 및 메모리 AI 에이전트 유형 및 메모리 Aug 17, 2025 pm 06:27 PM

AI 에이전트 주변의 대화가 비즈니스와 개인간에 계속 발전함에 따라 하나의 중심 주제가 두드러집니다. 모든 AI 에이전트가 동일하게 생성되는 것은 아닙니다. 기본, 규칙 중심 시스템에서 고도로 고급 적응 형 모델에 이르기까지 광범위한 스펙트럼이 있습니다.

슈퍼 똑똑한 AI에 대한 두려움 슈퍼 똑똑한 AI에 대한 두려움 Aug 07, 2025 am 11:39 AM

이제 그녀는 수많은 도메인에서 인간의 성과를 일치 시키거나 초과 할 수있는 이론적 인 AI 형태 인“인공 일반 지능”의 도착이 CI의 붕괴로 이어질 수 있다는 두려움에 사로 잡히고 영구적 인 휴직을하고 있습니다.

AI 모델 우월주의 레이스에서 OpenAI의 GPT-5는 무엇을 의미합니까? AI 모델 우월주의 레이스에서 OpenAI의 GPT-5는 무엇을 의미합니까? Aug 12, 2025 pm 06:12 PM

Openai CEO Sam Altman이 말한 것처럼 GPT -5는 AGI를 향한“중요한 단계”이며“가장 똑똑하고 빠르며 가장 유용한 모델”입니다. 그는 GPT-4에서 GPT-5 로의 점프를 대학 졸업생에서“박사 학위 전문가”로 이사하는 것과 비교합니다. 모델의 릴리스

프로토 타입 : AI 도구는 의사의 기술을 저하시킬 수 있습니다 프로토 타입 : AI 도구는 의사의 기술을 저하시킬 수 있습니다 Aug 16, 2025 pm 07:09 PM

Lancet의 새로운 연구는 대장 내시경 검사에서 AI를 사용하는 것이 의사의 진단 능력에 어떻게 영향을 미치는지 조사했습니다. 연구원들은 AI없이 3 개월에 걸쳐 특정 이상을 식별하는 의사의 기술을 평가 한 다음 TH 후에 다시 평가했습니다.

See all articles