>本教程展示了使用DeepSeek-R1和Langchain建立檢索增強一代(RAG)聊天機器人。 聊天機器人回答了基於知識庫的問題,在這種情況下是一本關於LLMS基礎的書。 該過程利用DeepSeek-R1的有效矢量搜索通過用戶友好的Gradio接口提供的準確和上下文相關的響應。 DeepSeek-R1的優勢,包括高性能檢索,良好的相關性排名,成本效益(由於本地執行),與Chroma易於集成以及離線功能,使其非常適合此應用程序。
教程分為清晰的步驟:
1。先決條件:
確保安裝必要的庫(Langchain,Chromadb,Gradio,Ollama,Pymupdf)。2。加載pdf:利用langchain的pymupdfloader從“ llms的基礎”中提取文本,
3。文本塊:使用進行改進的上下文檢索,將提取的文本分為較小的重疊塊。
4。嵌入生成:使用帶有DeepSeek-R1的Ollamaembeddings為每個塊生成嵌入。 通過RecursiveCharacterTextSplitter
並行化加速了此過程。 注意:該教程提到了指定不同的DeepSeek-R1型號(7b,8b,14b等)的能力。
5。在色度中存儲嵌入:在色度矢量數據庫中存儲嵌入和相應的文本塊以進行有效檢索。 該教程突出顯示創建和/或刪除集合以防止衝突。 ThreadPoolExecutor
設置色度恢復器,利用DeepSeek-R1嵌入進行查詢處理。
7。抹布管道(上下文檢索):一個函數
根據用戶的問題檢索相關的文本塊。8。查詢DeepSeek-r1:
函數格式化用戶的問題並檢索上下文,通過Ollama將其發送到DeepSeek-r1,並清理演示的響應。
9。 Gradio接口:retrieve_context
使用Gradio創建交互式界面,允許用戶輸入問題並從RAG管道中接收答案。
query_deepseek
>教程提出了幾種優化,包括調整塊尺寸,使用較小的DeepSeek-R1模型,集成了較大數據集的FAISS以及用於嵌入生成的批處理處理。 。
> 結論:
以上是DeepSeek-R1抹布聊天機器人與Chroma,Ollama和Gradio的詳細內容。更多資訊請關注PHP中文網其他相關文章!