インテル、Hot Chips 2024でAIアーキテクチャーに関する専門知識を説明

A glowing blue microchip on a dark circuit board, emitting vibrant neon light pathways that extend outward. The scene conveys a futuristic and technological atmosphere, with intricate details highlighting the complexity of the circuitry.

At the Hot Chips event in August 2024, Intel presented four sessions covering its AI architecture expertise across cloud with Intel Gaudi 3, client with Lunar Lake processors and edge with Intel Xeon 6 system-on-chip – and all tied together by platform advancements with the optical compute interconnect.

インテル® Xeon® 6 システム・オン・チップ(SoC)、Lunar Lake(開発コード名)プロセッサーに加え、テクニカル・プレゼンテーションの目玉はインテル® Gaudi® 3 AI アクセラレーターと光コンピュート・インターコネクト(OCI)

すべての画像をダウンロード (ZIP、16 MB)

最新情報:米国現地時間8月25日~27日に開催されている高性能半導体に関する国際学会「Hot Chips 2024」において、インテル コーポレーションは幅広い分野での独自の技術力を示すデモを行い、データセンター、クラウド、ネットワーク、そしてエッジやPCに至るまで、あらゆる用途にまたがるAI全般にわたる進歩を披露しました。これには高速AIデータ処理を対象とした業界最先端かつ初となる完全統合型の光コンピュート・インターコネクト(OCI)チップレットも含まれ、さらに、2025年前半にリリース予定のインテル® Xeon® 6 SoC(開発コード名:Granite Rapids-D)に関する新たな詳細情報も公開されました。

「インテルは、コンシューマーからエンタープライズ向けまで、さまざまなAIの利用法全般にわたり、新たな可能性を切り開くために必要なプラットフォーム、システム、テクノロジーを提供しています。AIワークロードが増大する中、インテルは業界における幅広い実績を活かし、イノベーションやクリエイティビティー、最適なビジネス成果実現に向け、顧客が何を必要としているのか正確に把握しています。半導体の性能向上とプラットフォーム帯域幅の拡大が不可欠とされる一方で、それぞれのワークロードごとに異なる課題があることもインテルは理解しています。データセンター向けに設計されたシステムをそのままエッジ向けへ転用することはできません。インテルはコンピュート・コンティニュアム全体にわたるシステム・アーキテクチャーに関する実証済みの豊富な技術力を持ち、次世代のAIイノベーションをけん引していく立場にいます」

–インテル コーポレーション、ネットワーク&エッジ事業本部、最高技術責任者(CTO)、ペレ・モンクルス(Pere Monclus)

インテルの発表内容:インテルはHot Chips 2024にて、インテル® Xeon® 6 SoC、Lunar Lake(開発コード名)クライアント向けプロセッサー、インテル® Gaudi® 3 AI アクセラレーター、OCIチップレットをテーマにした4件の技術論文を発表しました。
エッジ向けに設計された次世代のインテル® Xeon® 6 SoC
インテルフェローでありネットワーク&エッジ向け半導体アーキテクトであるプラビーン・モスアー(Praveen Mosur)は、インテル® Xeon® 6 システム・オン・チップ(SoC)の設計に関する新たな詳細情報を発表し、信頼性の低いネットワーク接続やスペースと電力の制限といった、エッジ特有のユースケースで見られる課題にどのように対処していくべきかについて説明しました。このSoCは、世界全体で90,0001 を超えるエッジ実装から得られたナレッジに基づき、インテル史上最もエッジに最適化されたプロセッサーとなります。単一のシステム・アーキテクチャーと内蔵のAIアクセラレーションを使用するこのSoCには、エッジデバイスにもエッジノードにも実装可能な拡張性が備わっているため、企業は機密性を維持しながら、データの取り込みから推論実行までAIワークフロー全体のスムーズかつ効率的な管理が可能になり、より的確な意思決定を行い、自動化を促進して、顧客へ最大限の価値を提供できるようになります。

インテル® Xeon® 6 SoCでは、インテル® Xeon® 6 プロセッサーのコンピュート・チップレットと、Intel 4プロセス技術で構築しエッジに最適化されたI/Oチップレットを組み合わせました。これにより、前世代の技術と比較して、パフォーマンス、電力効率、トランジスター密度の大幅な向上を実現しています。その他にも、次のような特長が挙げられます。
最大32レーンのPCI Express(PCIe)5.0接続

  • 最大16レーンのCompute Express Link(CXL)2.0接続
  • 2x 100Gイーサネット
  • BGA互換パッケージ内の4/8メモリーチャネル
  • 動作温度範囲の拡大、工業クラスの信頼性など、厳しい環境に設置される高性能機器に最適な、エッジ固有の機能拡張

またインテル® Xeon® 6 SoCには、エッジやネットワーク・ワークロードのパフォーマンスと効率性の向上を図るために設計された機能が備わっており、ライブOTT、VoD、ブロードキャスト配信メディアの動画トランスコードや分析を拡張する新しいメディア・アクセラレーションに加え、推論パフォーマンスを向上させるインテル® アドバンスト・ベクトル・エクステンションインテル® アドバンスト・マトリクス・エクステンション、ネットワークとストレージを効率化するインテル® クイックアシスト・テクノロジー、仮想RANの電力消費を低減するインテル® vRAN ブーストが内蔵されているほか、インテル® Tiber™ エッジ・プラットフォームに対応しているため、ユーザーはクラウドと変わらないシンプルさで、標準ハードウェアを使用しエッジやAIソリューションを構築、実装、運用、管理、拡張することが可能です。
Lunar Lake(開発コード名):次世代のAI PCに搭載
クライアントCPU SoCのリード・アーキテクトのアリク・ギホン(Arik Gihon)は、クライアント向けプロセッサーのLunar Lake (開発コード名)と、本製品がコア、グラフィックス、クライアントAIにおける優れたパフォーマンスを実現すると同時に、x86の電力効率を新たなレベルへと引き上げるために、どのような設計手法を採用しているかについて説明しました。新しいPerformance-cores(P-cores)とEfficient-cores(E-cores)は、システム・オン・チップでの消費電力を前世代と比較して最大40%低減させ、驚異的なパフォーマンスを実現します。最新のニューラル・プロセシング・ユニットは前世代と比較して最大4倍高速化され、生成AIでもそれに相応するパフォーマンス向上を可能にします。さらに、新しいXe2グラフィックス・プロセシング・ユニットのコアは、前世代と比較してゲーミングやグラフィックス性能を1.5倍向上させます。

Lunar Lake(開発コード名)に関する追加の詳細情報は、9月3日(現地時間)に行われるインテル® Core™ Ultra プロセッサーの発表イベントで公表される予定です。
インテル® Gaudi® 3 AI アクセラレーター:生成AIの学習処理と推論のためのアーキテクチャー設計
AIアクセラレーターの主任アーキテクトであるローマン・カプラン(Roman Kaplan)は、膨大な演算処理能力を要する生成AIモデルの学習処理と実装について説明しました。単一ノードから数千ノードの巨大クラスターへとシステム規模が拡大すれば、それとともにコストと電力の課題も大きくなるものです。

インテル® Gaudi® 3 AI アクセラレーターは、コンピューティング、メモリー、ネットワークの各アーキテクチャーに影響する独自の最適化アーキテクチャーにより、効率的な行列乗算エンジン、L2キャッシュの内蔵、広範なRDMA over Converged Ethernet(RoCE)ネットワーキングといった戦略を取り入れることで、こうした課題に対処します。これにより、インテル® Gaudi® 3 AI アクセラレーターの導入がパフォーマンスと電力効率の大幅な向上につながり、AIデータセンターをコスト効率の高いサステナブルな方法で運用できるようになるため、生成AIワークロードの展開に伴う拡張性の問題も解消されます。

インテル® Gaudi® 3 AI アクセラレーターと、まもなく登場するインテル® Xeon® 6 プロセッサー製品に関する情報は、9月に行われる発表イベントで共有される予定です。
xPU間を接続する、4テラビット/秒の光インターコネクト・チップレット
インテルの集積フォトニクス・ソリューションズ(IPS)事業本部は、インテルのCPUと共同パッケージ化されライブデータを実行する、業界最先端かつ初となる完全統合型の光コンピュート・インターコネクト(OCI)チップレットを公開しました。

このOCIチップレットに関しては、プリンシパル・エンジニアであり集積フォトニクス部門の主任を務めるサイード・ファソロラウミ(Saeed Fathololoumi)が、最大100メートルの光ファイバーを通じ一方向64チャネルの32Gbpsデータ転送速度をサポートする設計について説明しています。また、このチップレットによって、帯域幅の拡大、消費電力の削減、伝送距離の延長といった、高まり続けるAIインフラストラクチャーの要件にどのように対応していくか、ディスカッションを行いました。インテルのOCIチップレットは、データセンターやハイパフォーマンス・コンピューティング(HPC)アプリケーション向けに登場しつつある新しいAIインフラストラクチャーのコヒーレント・メモリー拡張やリソース分散など、CPU/GPUクラスター接続や新たなコンピューティング・アーキテクチャーの将来的な拡張を見据えた、広帯域幅インターコネクトにおける飛躍的進歩を象徴するものです。

注視すべき理由:AIは、企業にも消費者ユーザーにも、アイデアをこれまでにない高みへと素早く引き上げる手段を提供します。例えばコンシューマーには、生産性とクリエイティビティーが向上し、ゲーミングやエンターテインメントを存分に楽しみながらセキュリティーを強化できるインテリジェント機能が備わった、AI PCの豊富な選択肢があります。企業は、エッジ・コンピューティングとAIのパワーを最大限に活用して、より的確な意思決定を行い、自動化を促進して、社内データから価値を引き出せるようになります。

Hot Chips 2024で行われたテクノロジーを掘り下げるセッションでは、次世代のAIテクノロジーを市場に投入するインテルの製品チームを通じ、独自の技術的展望が伝えられました。

インテルについて

インテルは業界のリーダーとして、世界中の進歩を促すとともに生活を豊かにする、世界を変えるテクノロジーを創出しています。ムーアの法則に着想を得て、顧客企業が抱える大きな課題を解決する半導体製品を設計・製造し、その進化に向けて日々取り組んでいます。クラウド、ネットワーク、エッジ、あらゆるコンピューティング機器のインテリジェント化によりデータの価値を最大化し、ビジネスと社会をより良く変革します。インテルのイノベーションについては、https://newsroom.intel.co.jp または https://intel.co.jp をご覧ください。

The Small Print:

パフォーマンスは、使用状況、構成、その他の詳細によって異なります。詳細については、intel.co.jp/performanceindex を参照してください。

1 インテルの内部データ。