從 URL 下載大檔案而不出現記憶體問題
Web 開發人員通常會遇到從遠端 URL 下載大檔案的挑戰。雖然使用 file_get_contents() 和 file_put_contents() 的簡單方法可能足以滿足較小的文件,但對於超出記憶體限制的文件來說,它是不夠的。這個問題引發了一個問題:如何在不耗盡記憶體資源的情況下增量下載大檔案。
幸運的是,PHP 提供了一個優雅的解決方案來解決這個問題。從版本 5.1.0 開始,file_put_contents() 支援透過傳遞流句柄作為第二個參數來分塊寫入資料。
以下是利用此功能的修改後的代碼:
file_put_contents("Tmpfile.zip", fopen("http://someurl/file.zip", 'r'));
This代碼操作如下:
PHP 手冊解釋說,將流句柄傳遞給file_put_contents() 會觸發複製從流到目標檔案的剩餘緩衝區。這種機制有效地反映了stream_copy_to_stream()的功能。
透過採用這種技術,開發人員可以毫不費力地下載大文件,而不會遇到內存限制,確保即使是最大的文件大小也能實現無縫數據傳輸。
以上是如何在PHP中從URL下載大檔案而不耗盡記憶體?的詳細內容。更多資訊請關注PHP中文網其他相關文章!