是否曾經想將 Hugging Face 模型部署到 AWS Lambda,但卻被容器建置、冷啟動和模型快取所困擾?以下是如何使用 Scaffoldly 在 5 分鐘內完成此操作。
在 AWS 中建立名為 .cache 的 EFS 檔案系統:
從 python-huggingface 分支建立您的應用程式:
部署它:
就是這樣!您將獲得在 Lambda 上運行的 Hugging Face 模型(以 openai-community/gpt2 為例),並配有適當的快取和容器部署。
專業提示:對於 EFS 設置,您可以將其自訂為突發模式下的單一 AZ,以進一步節省成本。 Scaffoldly 會將 Lambda 函數與 EFS 的 VPC、子網路和安全群組進行配對。
✨ 查看現場示範和範例程式碼!
將機器學習模型部署到 AWS Lambda 傳統上涉及:
當您只想為模型提供服務時,需要進行大量基礎設施工作!
Scaffoldly 透過一個簡單的設定檔來處理所有這些複雜性。這是一個提供 Hugging Face 模型的完整應用程式(以 openai-community/gpt2 為例):
Scaffoldly 在幕後做了一些聰明的事情:
智慧貨櫃建築:
高效率的模型處理:
Lambda 就緒設定:
這是我在此範例中運行的 npx 腳手架部署命令的輸出:
✅ 成本:AWS Lambda、ECR 和 EFS 約 0.20 美元/天
✅ 冷啟動:第一次請求約 20 秒(模型載入)
✅ 熱烈請求:5-20秒(基於CPU的推理)
雖然此設定使用 CPU 推理(比 GPU 慢),但這是一種試驗 ML 模型或服務低流量端點的極其經濟高效的方法。
想要使用不同的模型嗎?只要更新兩個檔案:
Scaffoldly 透過 HF_TOKEN 環境變數支援私有和門控模型。您可以透過多種方式新增 Hugging Face 令牌:
令牌將自動用於下載和存取您的私人或門控模型。
Scaffoldly 甚至產生用於自動部署的 GitHub Action:
完整的範例可以在 GitHub 上找到:
腳手架/腳手架範例#python-huggingface
您可以透過執行以下命令來建立自己的範例副本:
您可以看到它正在即時運行(儘管由於 CPU 推斷,響應可能會很慢):
現場示範
Scaffoldly 是開源的,歡迎社群貢獻。
您還想在 AWS Lambda 中運行哪些其他模型?請在評論中告訴我!
以上是只需幾個步驟即可將擁抱臉部模型部署到 AWS Lambda的詳細內容。更多資訊請關注PHP中文網其他相關文章!