我們都熱愛人工智慧,近年來人工智慧的蓬勃發展改變了世界,並將其帶入了一個新時代。對於任何使用問題,都有一個人工智慧的用例,例如向Gemini 詢問烹飪食譜,Chatgpt 詢問作業,Claude 詢問編程, V0 對於前端設計,開發人員和學生現在非常依賴人工智慧,這導致幾乎每天都有一家新創公司出現人工智慧。
這導致像我這樣有抱負的開發者問如何才能製作這樣的東西?答案只在上圖。對這些模型的 API 呼叫。但是,它們並不便宜,像我這樣的失業學生沒有辦法購買訂閱。這就產生了在本地運行 AI,然後在連接埠上提供服務以進行 API 呼叫的想法。本文將逐步指導您如何設定 Ollama 並透過 Nodejs 程式碼存取 LLM。
此步驟適用於 Windows 使用者。如果您使用其他作業系統,請按照本指南操作。
npm init -y npm i typescript ollama npx tsc --init
"rootDir": "./src", "outDir": "./dist",
import ollama from 'ollama'; async function main() { const response = await ollama.chat({ model: 'codellama:7b', messages: [ { role: 'user', content: 'What color is the sky?' } ], }) console.log(response.message.content) } main()
"scripts": { "dev": "tsc -b && node dist/index.js" },
感謝您的閱讀,希望這篇文章能夠在任何情況下為您提供幫助,如果有幫助,請隨時在我的社交媒體上聯繫!
Linkedin | GitHub
以上是在您的 Node.js 專案中執行本地 LLM (Ollama)。的詳細內容。更多資訊請關注PHP中文網其他相關文章!