IT之家 9 月 20 日消息,英特爾今日公佈了最新的 Meteor Lake 處理器,並詳細介紹了 Meteor Lake 的整合式 NPU。
英特爾表示,Al正在滲透到人們生活的各個層面。雖然雲端Al提供可擴展的運算能力,但也存在一些限制。它依賴網路連接,延遲較高,實施成本也較高,同時也存在隱私問題。 MeteorLake將Al引入客戶端PC,提供低延遲的Al運算,能夠更好地保護資料隱私,並且在成本更低的情況下實現
英特爾稱,從 MeteorLake 開始,英特爾會將 Al 廣泛引入 PC,帶領數億台 PC 進入 Al 時代,而龐大的 x86 生態系統將提供廣泛的軟體模型和工具。
IT 之家附英特爾 NPU 架構詳解: IT 之家近日對英特爾的 NPU 架構進行了詳細解析。在這篇文章中,我們將深入探討英特爾 NPU 架構的各個面向。 首先,英特爾 NPU 是一種專門設計用於人工智慧任務的處理器。它具有高度並行的運算能力,能夠快速處理大量的資料。與傳統的 CPU 相比,NPU 在處理複雜的 AI 演算法時表現更為出色。 其次,Intel NPU 架構採用了深度學習技術,能夠自動學習並最佳化演算法。它能夠透過大量的訓練資料來提高演算法的準確性和效率。這使得它在圖像辨識、語音辨識和自然語言處理等領域有著廣泛的應用。 此外,Intel NPU 架構還具有高度的靈活性和可擴充性。它可以與其他硬體設備和軟體平台無縫集成,為開發者提供了更多的選擇和自由。這使得開發者能夠根據具體需求來客製化和優化演算法,從而實現更好的效能和效果。 總的來說,英特爾 NPU 架構是一種先進的處理器架構,為人工智慧任務提供了強大的運算能力和最佳化演算法的能力。它在各個領域都有廣泛的應用前景,將為人工智慧技術的發展帶來更多的可能性和機會
主機介面與裝置管理 ——裝置管理區支援微軟的新驅動程式模型,稱為微軟運算驅動程式模型 (MCDM)。這使Meteor Lake 的NPU 能夠在確保安全性的同時以卓越的方式支援MCDM,而記憶體管理單元(MMU)提供多種情況下的隔離,並支援電源和工作負載調度,從而實現快速的低功率狀態轉換。
多引擎架構 ——NPU 由一個多引擎架構組成,該架構配備兩個神經運算引擎,可共同處理單一工作負載或各自處理不同的工作負載。在神經計算引擎中,有兩個主要的計算組件,其一為推理管道一一這是高能效計算的核心驅動因素,通過最大限度地減少數據移動並利用固定功能運作來處理常見的大計算量任務,可以在神經網路執行中實現高效節能。絕大多數計算發生在推理管道上,這個固定功能管道硬體支援標準的神經網路運作。此管道由一個乘累積加運算(MAC)陣列、一個活化功能塊和一個資料轉換區塊組成。其二為 SHAVEDSP —— 這是一款專為 Al 設計的高度最佳化 VLIW DSP(超長指令字 / 數位訊號處理器)。串流混合架構向量引擎( SHAVE)可以與推理管道和直接記憶體存取 (DMA)引擎一起進行管道化,實現在 NPU 上井行進行的真正異質計算,從而最大限度地提高效能。
DMA 引擎 —— 此引擎能夠優化編排資料移動,實現最高的能源效率和效能。
以上是英特爾 Meteor Lake 處理器搭載 NPU,將推動 PC 進入人工智慧時代的詳細內容。更多資訊請關注PHP中文網其他相關文章!