我正在嘗試使用 meta-llama/Llama-2-7b-hf 模型並在我的場所本地運行它,但會話在此過程中崩潰了。
我正在嘗試使用 meta-llama/Llama-2-7b-hf 模型並在我的場所本地運行它。為此,我使用 Google Colab 並從 Hugging Face 取得了存取金鑰。我正在利用他們的變壓器庫來完成必要的任務。最初,我在 Google Colab 上使用 T4 GPU 運行時堆疊,它提供 12.7 GB 系統 RAM、15.0 GB GPU RAM 和 78.2 GB 磁碟空間。儘管有這些資源,我的會話還是崩潰了,並且遇到了以下錯誤:
隨後,我切換到 TPU V2 運行時堆疊,它提供 334.6 GB 的系統 RAM 和 225.3 GB 的磁碟空間,但問題仍然存在。
這是我的程式碼:
以上是為什麼我的 Google Colab 會話在運行 Llama 模型時崩潰?的詳細內容。更多資訊請關注PHP中文網其他相關文章!