為什麼我的 Google Colab 會話在運行 Llama 模型時崩潰?

王林
發布: 2024-08-12 22:34:33
原創
721 人瀏覽過

我正在嘗試使用 meta-llama/Llama-2-7b-hf 模型並在我的場所本地運行它,但會話在此過程中崩潰了。

我正在嘗試使用 meta-llama/Llama-2-7b-hf 模型並在我的場所本地運行它。為此,我使用 Google Colab 並從 Hugging Face 取得了存取金鑰。我正在利用他們的變壓器庫來完成必要的任務。最初,我在 Google Colab 上使用 T4 GPU 運行時堆疊,它提供 12.7 GB 系統 RAM、15.0 GB GPU RAM 和 78.2 GB 磁碟空間。儘管有這些資源,我的會話還是崩潰了,並且遇到了以下錯誤:
Why did my Google Colab session crash while running the Llama model?

隨後,我切換到 TPU V2 運行時堆疊,它提供 334.6 GB 的系統 RAM 和 225.3 GB 的磁碟空間,但問題仍然存在。

這是我的程式碼:

雷雷

以上是為什麼我的 Google Colab 會話在運行 Llama 模型時崩潰?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:dev.to
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!