首頁 > 後端開發 > php教程 > 如何在PHP中從URL下載大檔案而不耗盡記憶體?

如何在PHP中從URL下載大檔案而不耗盡記憶體?

Patricia Arquette
發布: 2024-12-16 01:38:13
原創
643 人瀏覽過

How Can I Download Large Files from URLs in PHP without Memory Exhaustion?

從 URL 下載大檔案而不出現記憶體問題

Web 開發人員通常會遇到從遠端 URL 下載大檔案的挑戰。雖然使用 file_get_contents() 和 file_put_contents() 的簡單方法可能足以滿足較小的文件,但對於超出記憶體限制的文件來說,它是不夠的。這個問題引發了一個問題:如何在不耗盡記憶體資源的情況下增量下載大檔案。

幸運的是,PHP 提供了一個優雅的解決方案來解決這個問題。從版本 5.1.0 開始,file_put_contents() 支援透過傳遞流句柄作為第二個參數來分塊寫入資料。

以下是利用此功能的修改後的代碼:

file_put_contents("Tmpfile.zip", fopen("http://someurl/file.zip", 'r'));
登入後複製

This代碼操作如下:

  • 它使用以下命令將遠端URL 作為流句柄打開fopen()。
  • 然後將此句柄提供給 file_put_contents() 作為資料參數。
  • 下載遠端檔案時,它會逐漸寫入本機檔案 Tmpfile.zip,

PHP 手冊解釋說,將流句柄傳遞給file_put_contents() 會觸發複製從流到目標檔案的剩餘緩衝區。這種機制有效地反映了stream_copy_to_stream()的功能。

透過採用這種技術,開發人員可以毫不費力地下載大文件,而不會遇到內存限制,確保即使是最大的文件大小也能實現無縫數據傳輸。

以上是如何在PHP中從URL下載大檔案而不耗盡記憶體?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:php.cn
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
作者最新文章
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板