TrendForce: Nvidia の Blackwell プラットフォーム製品により、TSMC の CoWoS 生産能力は今年 150% 増加します
このサイトからのニュース 4 月 17 日、TrendForce は最近、Nvidia の新しい Blackwell プラットフォーム製品の需要は強気であると考えているレポートを発表しました。 により、TSMC の CoWoS パッケージング総生産能力は 2013 年に 150% 以上増加すると予想されています。 2024年。

NVIDIA Blackwell の新しいプラットフォーム製品には、NVIDIA 独自の Grace Arm CPU を統合する B シリーズ GPU と GB200 アクセラレータ カードが含まれます。
TrendForce は、サプライチェーンが現在 GB200 について非常に楽観的であることを確認しており、2025 年の出荷台数は 100 万台を超え、Nvidia のハイエンド GPU の 40 ~ 50% を占めると予想されています。
NVIDIA は、今年下半期に GB200 や B100 などの製品を提供する予定ですが、上流のウェーハ パッケージングでは、より複雑で高精度の要件を備えた CoWoS-L テクノロジと検証およびテスト プロセスをさらに採用する必要があります。そのため、TrendForce 関連製品の量が増え始めるのは、今年の第 4 四半期か来年初めになると考えられています。
CoWoS テクノロジ、GB200、B100、B200 などの NVIDIA の B シリーズがより多くの CoWoS 生産容量を消費するため、TSMC も 2024 年全体の CoWoS 生産容量需要を増加させています。月産能力は年末の400万台に近づく見通しで、2023年の総生産能力と比べて150%以上増加する。
さらに、レポートでは、Nvidia と AI 開発、HBM3e が今年下半期の市場の主流になると考えています。同庁は、NVIDIA が今年下半期に H100 に代わって HBM3e を搭載した H200 の出荷を拡大し始め、その後 GB200 と B100 も HBM3e を採用すると予測しています。

このサイトには参照アドレス
TrendForce TrendForce が添付されています。 NVIDIA Blackwell の新しいプラットフォーム製品の需要は増加すると予想されており、これにより TSMC の CoWoS 総生産能力は 2024 年に 150% 以上増加すると予想されます
以上がTrendForce: Nvidia の Blackwell プラットフォーム製品により、TSMC の CoWoS 生産能力は今年 150% 増加しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undress AI Tool
脱衣画像を無料で

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

オープンな LLM コミュニティは百花繚乱の時代です Llama-3-70B-Instruct、QWen2-72B-Instruct、Nemotron-4-340B-Instruct、Mixtral-8x22BInstruct-v0.1 などがご覧いただけます。優秀なパフォーマーモデル。しかし、GPT-4-Turboに代表される独自の大型モデルと比較すると、オープンモデルには依然として多くの分野で大きなギャップがあります。一般的なモデルに加えて、プログラミングと数学用の DeepSeek-Coder-V2 や視覚言語タスク用の InternVL など、主要な領域に特化したいくつかのオープン モデルが開発されています。

6月2日の当サイトのニュースによると、現在開催中のHuang Renxun 2024 Taipei Computexの基調講演で、Huang Renxun氏は、生成人工知能がソフトウェアスタック全体の再構築を促進すると紹介し、NIM(Nvidia Inference Microservices)のクラウドネイティブマイクロサービスをデモしました。 。 Nvidia は、「AI ファクトリー」が新たな産業革命を引き起こすと信じています。Microsoft が開拓したソフトウェア業界を例に挙げると、Huang Renxun 氏は、生成人工知能がそのフルスタックの再構築を促進すると信じています。あらゆる規模の企業による AI サービスの導入を促進するために、NVIDIA は今年 3 月に NIM (Nvidia Inference Microservices) クラウドネイティブ マイクロサービスを開始しました。 NIM+ は、市場投入までの時間を短縮するために最適化されたクラウドネイティブのマイクロサービスのスイートです

4月17日の当サイトのニュースによると、TrendForceは最近、Nvidiaの新しいBlackwellプラットフォーム製品に対する需要は強気で、2024年にはTSMCのCoWoSパッケージング総生産能力が150%以上増加すると予想されるレポートを発表した。 NVIDIA Blackwell の新しいプラットフォーム製品には、B シリーズ GPU と、NVIDIA 独自の GraceArm CPU を統合する GB200 アクセラレータ カードが含まれます。 TrendForce は、サプライチェーンが現在 GB200 について非常に楽観的であることを確認しており、2025 年の出荷台数は 100 万台を超え、Nvidia のハイエンド GPU の 40 ~ 50% を占めると予想されています。 Nvidiaは今年下半期にGB200やB100などの製品を提供する予定だが、上流のウェーハパッケージングではさらに複雑な製品を採用する必要がある。

このウェブサイトの 8 月 6 日のニュースによると、Innolux Corporation のゼネラルマネージャーである Yang Zhuxiang 氏は昨日 (8 月 5 日)、同社は半導体ファンアウトパネルレベルパッケージング (FOPLP) を積極的に導入および促進しており、今後大量の実装が期待されていると述べました。今年末までにチップファーストを生産する予定であるため、プロセス技術の収益への貢献は来年の第 1 四半期に明らかになるでしょう。 Fenye Innolux 氏は、今後 1 ~ 2 年以内に中級から高級製品向けの再配線層 (RDLFirst) プロセス技術を量産する予定であり、パートナーと協力して技術的に最も難しいガラス穴あけ加工の開発に取り組むと述べました ( TGV)プロセスにはさらに2〜3年かかりますが、1年以内に量産化できます。 Yang Zhuxiang 氏は、Innolux の FOPLP 技術は「量産の準備ができており」、ローエンドおよびミッドレンジの製品で市場に参入すると述べました。

2023 年が AI 元年とみなされるなら、2024 年は大規模な AI モデルの普及にとって重要な年になる可能性があります。過去 1 年間で、多数の大規模な AI モデルと多数の AI アプリケーションが登場し、Meta や Google などのメーカーも、「AI 人工知能」と同様の独自のオンライン/ローカル大規模モデルを一般に公開し始めています。 「それは手の届かないところにある。」という概念が突然人々に浮かびました。現在、人々は生活の中で人工知能に触れる機会が増えており、注意深く見てみると、アクセスできるさまざまな AI アプリケーションのほぼすべてが「クラウド」上に展開されていることがわかります。大きなモデルをローカルで実行できるデバイスを構築したい場合、ハードウェアは 5,000 元以上の新品の AIPC になります。

6 月 15 日のこのサイトのニュースによると、ASUS は最近、Prime シリーズの GeForce RTX40 シリーズ「Ada」グラフィックス カードを発売しました。そのサイズは、Nvidia の最新の SFF-Ready 仕様に準拠しています。この仕様では、グラフィックス カードのサイズが超えないようになっています。 304 mm x 151 mm x 50 mm (長さ x 高さ x 厚さ)。今回ASUSが発売するPrimeシリーズのGeForceRTX40シリーズにはRTX4060Ti、RTX4070、RTX4070SUPERが含まれますが、現時点ではRTX4070TiSUPERやRTX4080SUPERは含まれません。このシリーズの RTX40 グラフィックス カードは、269 mm x 120 mm x 50 mm の寸法を持つ共通の回路基板設計を採用しています。3 つのグラフィックス カードの主な違いは次のとおりです。

4月10日の当ウェブサイトのニュースによると、リバティ・タイムズ紙によると、TSMCは今年5月に荘子寿博士を米国に派遣し、王英朗氏と協力してTSMC米国工場の建設を共同で推進する計画だという。米商務省は現在、TSMC、インテル、サムスンへの補助金額を最終決定したが、TSMCの米国工場は依然として多くの問題を抱えている。 TSMCの経営陣は、生産と製造を専門とするWang Yinglang氏と協力するためにZhuang Zishou博士を派遣することで、先進的なプロセスの導入をできるだけ早く推進したいと考えている。このサイトで TSMC の公式リーダーシップ チームをチェックしてください。 Zhuang Zishou 博士は現在、TSMC の工場担当副部長で、新しい工場の計画、設計、建設、メンテナンス、および既存の工場の運営とアップグレードを担当しています。工場設備。 Zhuang 博士は 1989 年に TSMC に入社しました。

小型モデルの台頭。先月、Meta は Llama3.1 シリーズのモデルをリリースしました。これには、Meta のこれまでで最大のモデルである 405B モデルと、それぞれ 700 億と 80 億のパラメータを持つ 2 つの小型モデルが含まれています。 Llama3.1 は、オープンソースの新時代の到来を告げるものと考えられています。ただし、新世代モデルはパフォーマンスが強力ですが、導入時には依然として大量のコンピューティング リソースが必要です。したがって、多くの言語タスクで十分なパフォーマンスを発揮し、導入コストも非常に安価な小規模言語モデル (SLM) を開発するという別の傾向が業界に現れています。最近、NVIDIA の研究では、構造化された重み枝刈りと知識の蒸留を組み合わせることで、最初は大きなモデルから徐々に小さな言語モデルを取得できることが示されました。チューリング賞受賞、メタチーフA
