人工知能(AI)の主戦場は、巨大なデータセンターからユーザーの手元に存在するエッジデバイスへと、歴史的なパラダイムシフトを遂げようとしている。その変革の中心核としてPCアーキテクチャの歴史を根本から塗り替えているのが「NPU(Neural Processing Unit)」である。単なる新しいプロセッサの追加にとどまらず、コンピューティングのあり方そのものを再定義するこの技術は、ビジネスの生産性からソフトウェア開発のアプローチまで、あらゆる領域に破壊的イノベーションをもたらしている。本稿では、テクノロジーの最前線を追うエンジニア、ITアーキテクト、そしてエンタープライズのIT投資決定者に向けて、NPUのアーキテクチャの本質から、最新SoCの徹底比較、実用化における技術的落とし穴、さらには2030年を見据えた半導体技術の未来予測まで、現在考えうる最も深い解像度で体系的に解説する。
- NPUとは何か?「AI PC」時代を牽引する専用プロセッサの全貌
- NPUの定義とAI PC(Copilot+ PC)躍進の背景
- CPU・GPU・NPUのアーキテクチャ比較と役割分担
- NPUがもたらす破壊的メリット:「ローカルAI」と圧倒的な「省電力性能」
- エッジAIが実現する超低遅延と高度なプライバシー保護
- 継続的なAIタスクにおけるシステム全体の消費電力最適化
- 性能指標「TOPS」の読み解き方と最新SoCの徹底比較
- Copilot+ PCの要件「40 TOPS」が意味する新基準と実効性能
- Core Ultra、Snapdragon X Eliteなど最新チップの実力比較
- 技術的な落とし穴:「メモリウォール問題」と帯域幅の壁
- ビジネスと開発の現場を革新するNPUの実践的ユースケース
- Windows Studio EffectsやRecall機能による業務効率化
- OpenVINO等を活用した開発者向けAIアプリケーション実装
- エッジAI実用化の課題:ソフトウェアのフラグメンテーション
- PC買い替えの最適解と次世代半導体が描く未来予測
- 法人導入におけるクラウドAIとのTCO比較と選定基準
- 2nmプロセス技術がもたらす2026年以降のエッジAI進化論
- 2026〜2030年の予測シナリオ:AIネイティブアーキテクチャの完成
NPUとは何か?「AI PC」時代を牽引する専用プロセッサの全貌
NPUの定義とAI PC(Copilot+ PC)躍進の背景
NPU(Neural Processing Unit)とは、人間の脳の神経網を模したニューラルネットワーク処理、とりわけ深層学習における膨大な「行列積和演算(MAC演算:Multiply-Accumulate)」を極めて高効率に実行するため、シリコンレベルで設計された特化型プロセッサ(IPブロック)である。これまでのPCアーキテクチャにおいて、高度なAI処理はクラウド側の巨大なGPUクラスターを擁するデータセンターに依存していた。しかし、数十億から数千億のパラメータを持つ生成AIモデルが普及するにつれ、API経由での処理遅延(レイテンシ)の増大、莫大なクラウドサーバー維持コスト、そして機密データを外部へ送信することに伴うセキュリティリスクが顕在化してきた。この課題を解決するため、端末側で推論を実行するエッジAIへのパラダイムシフトが急速に進んでいる。
この潮流を決定的なものにしたのが、Microsoftが提唱した新基準Copilot+ PCの登場である。この規格は、PCのローカル環境における実用的なAI体験の閾値として「NPU単体で40 TOPS(1秒間に40兆回の整数演算)」以上の性能を必須要件として定めた。これにより、PC業界の競争軸は「クロック周波数」や「コア数」といった従来の汎用指標から、「いかにAIモデルの推論を低電力かつ高速にローカル実行できるか」という新たな次元へと完全に移行したのである。このシフトは単なるハードウェアのスペック競争にとどまらず、OSレベルでAI機能をシームレスに統合し、ユーザーのコンテキストをリアルタイムに解析するインテリジェント・コンピューティングの実装フェーズの幕開けを意味している。
CPU・GPU・NPUのアーキテクチャ比較と役割分担
なぜ既存のプロセッサだけではCopilot+ PCのビジョンを実現できないのか。その答えは、各プロセッサの根底にあるアーキテクチャ(設計思想)と演算方式の決定的な違いに隠されている。現代のSoC(System on a Chip)は、複数の異なる特性を持つ演算器を組み合わせた「ヘテロジニアス・コンピューティング(非対称計算)」の極致とも言える構造を持っている。
| プロセッサ | 演算方式とアーキテクチャ特性 | メモリ構造とボトルネック | AI処理における役割 |
|---|---|---|---|
| CPU (Central Processing Unit) | 直列処理・スカラー演算。高度な分岐予測や複雑な制御ロジックに特化。 | 大容量のL1〜L3キャッシュと複雑な命令デコーダに面積を割き、フォン・ノイマン・ボトルネックに弱い。 | OSの制御、AIモデルのメモリロード、データの前処理、システム全体のオーケストレーション。 |
| GPU (Graphics Processing Unit) | 並列処理・ベクトル演算(SIMT)。数千の小規模コアで大量データを同時処理。 | 広帯域メモリ(GDDRやHBM)に強く依存。演算器は多いが稼働時の消費電力が極めて高い。 | 高解像度の画像生成、超大規模なLLMのローカル学習、単発で高負荷なバッチ推論タスク。 |
| NPU (Neural Processing Unit) | 特化型テンソル処理。行列積和演算(MAC)を専用ハードウェアで実行。 | シストリックアレイ構造。大容量SRAMを演算器に隣接させ、データ移動コストを極限まで削減。 | バックグラウンドでの常時推論(小規模LLMチャット、音声認識、画像補正等)の極低電力実行。 |
CPUは、複雑な条件分岐やOSのマルチタスク制御をミリ秒単位の低遅延でさばく「スカラー演算」のエキスパートである。しかし、ニューラルネットワーク特有の「単純だが膨大な数の行列計算」においては、過剰に複雑な制御回路が逆に足を引っ張り、処理効率が著しく低下する。一方、GPUは数千の演算ユニット(ALU)を並列に並べた「ベクトル演算」を得意とするため、AI学習や大規模な推論には適している。しかし、GPUのアーキテクチャはグラフィックスパイプラインを前提としているため、常時稼働させるとバッテリーを急速に消耗させ、発熱によるサーマルスロットリング(熱ダレによる性能低下)を引き起こす。
これらに対し、NPUはAIモデルの根幹である「テンソル演算(多次元配列の計算)」を処理するためだけに生まれたスペシャリストである。NPUの内部には数千から数万のMACユニットが「シストリックアレイ(Systolic Array)」と呼ばれる格子状に敷き詰められている。特筆すべきは「データフロー・アーキテクチャ」の採用である。従来のプロセッサのように計算のたびに外部メモリ(DRAM)へアクセスするのではなく、一度読み込んだ重み(Weight)データを演算器間(レジスタ間)でバケツリレーのように再利用する。シリコンチップ上で最も電力を消費するのは「演算」そのものではなく、「メモリからのデータ移動」である。NPUは演算器の直近に巨大なSRAMバッファを配置し、このデータ移動コストを最小化することで、圧倒的なワットパフォーマンス(Performance per Watt)を実現しているのである。
NPUがもたらす破壊的メリット:「ローカルAI」と圧倒的な「省電力性能」
エッジAIが実現する超低遅延と高度なプライバシー保護
NPUがPCに搭載されることで得られる最大のメリットは、「AIをクラウドから取り戻す」ことによる運用上の変革である。現在主流となっているクラウドAPI経由のAI推論は、数千キロ離れたデータセンターとの通信を前提とするため、光の速度という物理的制約やネットワークジッタ(遅延の揺らぎ)により、数百ミリ秒から数秒のレイテンシが避けられない。
NPUを中核プロセッサとして駆動する「エッジAI」は、データを端末内で完結して処理するため、この通信レイテンシを事実上「ゼロ」にすることができる。例えば、リアルタイムでの同時通訳システム、自動運転車における瞬時の障害物検知、製造業のFA機器におけるミリ秒単位の不良品排除など、クラウドを経由していては命取りになる(あるいはシステムが破綻する)クリティカルなタスクにおいて、エッジAIは唯一の解となる。
さらに、エンタープライズ領域における最大の障壁である「データガバナンスとプライバシー保護」の観点でもNPUは革命をもたらす。EUのGDPR(一般データ保護規則)に代表されるように、データ主権(Data Sovereignty)への要求が世界的に強まる中、企業の財務データ、医療機関の電子カルテ、未発表の製品設計図といった機密データを外部のAIサーバーへ送信することは、重大なコンプライアンス違反のリスクを伴う。ローカルで動作するNPUは、これらの機密情報をネットワークから完全に遮断された状態(エアギャップ環境)で推論・処理することを可能にし、企業に「最強のセキュリティ・ファイアウォール」を提供する。
継続的なAIタスクにおけるシステム全体の消費電力最適化
NPUがもたらすもう一つの革新が、システム全体における「省電力性能」の劇的な向上である。これは前述のハードウェア設計上の工夫(SRAMの近接配置など)にとどまらず、OSやシステムレベルでの「タスクの動的オフロード」によって達成される。
現代のPC環境では、ビデオ会議中の背景ぼかし、ノイズキャンセリング、さらにはOSレベルでの文字起こしや文脈解析といったAIタスクが「常時稼働」している。これらの負荷をCPUやGPUで処理し続けると、システム全体の消費電力(TDP:Thermal Design Power)が跳ね上がり、モバイルノートPCのバッテリーは数時間で枯渇してしまう。しかし、専用回路であるNPUにこれらの推論タスクを完全に委譲(オフロード)することで、メインプロセッサはスリープ状態に移行するか、本来のアプリケーション処理に専念できるようになる。
例えば、NPUが推論を実行している間の消費電力は数ミリワット〜数ワット程度に抑えられ、GPUを利用した場合と比較して電力効率は数十倍に達する。これにより、ファンレス設計の薄型ノートPCであっても、長時間の高負荷AIタスクをバッテリー駆動のまま丸一日実行し続けるという、かつては不可能だった運用シナリオが現実のものとなるのである。さらに、熱設計に余裕が生まれることで、筐体の小型化や静音化といったハードウェアデザインの自由度も飛躍的に向上する。
性能指標「TOPS」の読み解き方と最新SoCの徹底比較
Copilot+ PCの要件「40 TOPS」が意味する新基準と実効性能
AI PCの性能を評価する上で、IT選定担当者や開発者が今最も注視すべき指標が「TOPS(Trillion Operations Per Second:1秒間に1兆回の定数演算能力)」である。従来のCPUクロック周波数(GHz)やGPUのTFLOPS(浮動小数点演算性能)とは異なり、TOPSは主に「INT8(8ビット整数)」などの低精度データフォーマットで、いかに大量の行列計算を並列処理できるかを示す指標である。
Microsoftが「Copilot+ PC」の認証基準として「NPU単体で40 TOPS以上」という高い壁を設定したのには明確な理由がある。現在、数十億パラメータ規模の軽量なLLM(Small Language Models:例としてLlama 3 8BやPhi-3など)をローカル環境で実用的なテキスト生成速度(毎秒15〜20トークン以上)で推論するには、最低でも30〜40 TOPSの実効性能が不可欠となる。これに満たないNPUの場合、処理が追いつかずにCPUやGPUへフォールバック(処理の差し戻し)が発生し、結果としてシステムがフリーズしたり、バッテリーを無駄に消費したりする。
ただし、TOPSはあくまで「理論上のピーク性能(カタログスペック)」である点に注意が必要だ。ハードウェアが提供するTOPSが高くても、モデルの最適化不足や後述するメモリ帯域の制限により、実効TOPS(Effective TOPS)が半分以下に落ち込むケースも珍しくない。そのため、単なる数値の大小だけでなく、「INT8やFP16といった複数のデータ型に柔軟に対応できるか」「専用のコンパイラが優秀か」といった総合的なアーキテクチャの完成度が問われている。
Core Ultra、Snapdragon X Eliteなど最新チップの実力比較
現在、主要シリコンベンダーは「40 TOPSの壁」を突破すべく、アーキテクチャを根本から見直した次世代SoCを市場に投入している。各社のアプローチは大きく異なり、それぞれに独自の強みを持っている。
| SoC / プロセッサ名 | NPU性能 (TOPS) | アーキテクチャの特長・注力領域 |
|---|---|---|
| Qualcomm Snapdragon X Elite |
最大 45 TOPS | Hexagon NPUを採用。ARMアーキテクチャならではの圧倒的なワットパフォーマンスと常時接続性を誇る。モバイル由来の極低電力設計が強み。 |
| Intel Core Ultra (Lunar Lake) |
最大 48 TOPS | x86互換性を強固に維持。第4世代NPUを搭載し、前世代から推論性能が約4倍に飛躍。「OpenVINO」による開発者エコシステムの支配力が絶大。 |
| AMD Ryzen AI 300 シリーズ |
最大 50 TOPS | XDNA 2アーキテクチャを採用。「Block FP16」という独自のデータフォーマットをサポートし、量子化(INT8圧縮)の手間をかけずに高精度な推論を実現。 |
| Apple M4 チップ |
最大 38 TOPS | 他社に先駆け長年Neural Engineを搭載。独自のユニファイドメモリ・アーキテクチャにより、メモリ帯域幅を活かした超高速推論が可能。 |
Snapdragon X Eliteの登場は、長らくx86アーキテクチャが支配してきたPC市場において破壊的なインパクトを与えた。スマートフォンのSoC開発で培われた低電力技術をPC向けに昇華させ、バッテリー駆動時の性能低下が極めて少ないという実務上の絶大なメリットを提供している。対抗するIntelのCore Ultra (Lunar Lake)は、エンタープライズ市場におけるレガシーソフトウェアの互換性を担保しつつ、NPUの演算能力を劇的に引き上げた。インテルの真の強みはハードウェア単体ではなく、ソフトウェア最適化ツール群との密接な連携にある。また、AMDのRyzen AI 300シリーズは、AIモデルの精度劣化を防ぎつつ計算効率を高めるユニークなアプローチで、クリエイターや研究者層からの支持を集めている。
技術的な落とし穴:「メモリウォール問題」と帯域幅の壁
カタログ上のTOPS競争が激化する一方で、ハードウェア実装における最大の「落とし穴」として立ちはだかっているのがメモリウォール(Memory Wall)問題である。どれほどNPUの演算器(MACユニット)を増やしTOPSを引き上げても、AIモデルの重みデータをメインメモリ(RAM)からNPUへと転送する速度が遅ければ、演算器は「データ待ち」の状態(アイドル状態)となり性能を発揮できない。
現在の一般的なAI PCで採用されているLPDDR5xメモリの帯域幅は、おおよそ100GB/s〜130GB/s程度である。これに対し、数十億パラメータのLLMを滑らかにローカル推論するためには、メモリ帯域幅が深刻なボトルネックとなる。事実、ローカルLLMのテキスト生成速度(Tokens per Second)は、NPUのTOPSよりも「システム全体のメモリ帯域幅」に強く依存する。AppleのMシリーズチップがAI推論で高い評価を得ている理由の一つは、プロセッサとメモリを同一基板上に統合したユニファイドメモリ・アーキテクチャにより、数百GB/sに達する超広帯域を実現している点にある。次世代のAI PCにおいては、NPUの演算性能と同時に、LPDDR6やオンパッケージメモリの採用など、メモリアーキテクチャの革新が不可欠な課題となっている。
ビジネスと開発の現場を革新するNPUの実践的ユースケース
Windows Studio EffectsやRecall機能による業務効率化
ハードウェアの進化は、ソフトウェアレイヤーとの高度な統合によって初めて真の価値を生み出す。エンタープライズの現場において、NPU搭載PCの導入を正当化する即効性の高いユースケースが、OSレベルで統合されたAI機能群である。
その筆頭がWindows Studio Effectsである。昨今のハイブリッドワークにおいて、ビデオ会議は日常業務の中心となった。背景の高精度なぼかし、話者を自動で追従するオートフレーミング、そして画面上の資料を読んでいてもカメラ目線を維持しているように見せるアイコンタクト補正。これらの高度な画像処理と音声ノイズキャンセリングをNPUが専用で処理することで、CPU使用率は劇的に下がり、バッテリー消費を気にすることなく長時間のオンラインミーティングが可能となる。
さらに注目すべきは、PC上のすべてのアクティビティを数秒ごとにスナップショットとして保存し、自然言語で過去の作業履歴を瞬時に検索できる「Recall(リコール)」機能や、Semantic Indexing(意味的インデックス化)である。これまでであれば、画面内の膨大な情報を解析・ベクトル化するためにデータをクラウドへ送信する必要があったが、NPUを活用することで、すべてをオンデバイスでセキュアに処理できる。ユーザーは「先週、〇〇さんとチャットで話した赤いグラフの資料」と検索するだけで、一瞬にして目的のファイルや画面にアクセスできる。これは、個人の生産性を根本から底上げするアンビエント(環境的)AIの第一歩である。
OpenVINO等を活用した開発者向けAIアプリケーション実装
AIアプリケーション開発者やITアーキテクトにとって、NPUは新たなビジネスロジックを実装するための強力なプラットフォームである。クラウドAI(LLM APIなど)への依存は、利用回数に比例した従量課金コストの爆発的な増大を招く。このコスト問題を解決するため、企業内のドキュメントを参照するローカルRAG(検索拡張生成)システムや、オフライン環境で動作する専門特化型AIの実装が急増している。
この領域を強力に支援するのが、IntelのOpenVINOツールキットや、Qualcomm AI Hub、MicrosoftのONNX Runtimeといった開発・推論最適化フレームワーク群である。開発者はこれらのツールを使用することで、PyTorchやTensorFlowで構築された既存の深層学習モデルを、NPU向けに効率よくデプロイできる。
具体的な実装プロセスにおいて鍵となるのが「量子化(Quantization)」技術である。浮動小数点数(FP32)で学習された巨大なモデルを、推論精度の大幅な劣化を防ぎつつINT8やFP16へ圧縮する。これには、学習後に圧縮をかけるPTQ(Post-Training Quantization)や、圧縮を前提として再学習を行うQAT(Quantization-Aware Training)といった手法が用いられる。OpenVINOなどのエコシステムは、これらの複雑な最適化プロセスを数行のコードで自動化し、CPU、GPU、NPUへの最適なワークロード分配(ヘテロジニアス・コンピューティング)を開発者が意識することなく実現する。
エッジAI実用化の課題:ソフトウェアのフラグメンテーション
一方で、エッジAIの開発現場には「ソフトウェアのフラグメンテーション(断片化)」という深刻な課題が存在している。Intel、Qualcomm、AMD、Appleといった各シリコンベンダーが独自のNPUアーキテクチャと専用のSDK(ソフトウェア開発キット)を提供しているため、開発者は特定のハードウェアに依存したコード(ベンダーロックイン)を書かざるを得ない状況が生まれている。
例えば、Intel機向けに最適化した推論エンジンが、QualcommのSnapdragon環境では全く動かない、あるいは極端にパフォーマンスが低下するといった事態が発生する。このカオスな状況を収拾するため、MicrosoftはWindows OS上でハードウェアの差異を吸収し、統一されたAPIを提供する「Windows Copilot Runtime」および「DirectML」の強化を急ピッチで進めている。エコシステムの標準化がどこまで進むかが、ローカルAIアプリが一般消費者に爆発的に普及するための最大の試金石となる。
PC買い替えの最適解と次世代半導体が描く未来予測
法人導入におけるクラウドAIとのTCO比較と選定基準
「今、企業はAI PCに投資すべきか?」という問いに対し、財務および技術的観点からの結論は明確に「Yes」である。IT選定担当者は、単なるPCの調達コスト(Capex)だけでなく、運用期間(一般的に3〜5年)におけるTCO(総所有コスト)とROI(投資対効果)を総合的に評価しなければならない。
現在、企業が業務効率化のためにGPT-4oやClaude 3といった商用LLMのAPIを利用する場合、利用するトークン量に応じた莫大な従量課金(Opex)が発生する。全社員が日常的にプロンプトを投げ、大量の社内ドキュメントを読み込ませるRAGシステムをクラウドベースで構築した場合、月額のAPIコストは容易に数百万円規模に達する。しかし、Copilot+ PC要件を満たす40 TOPS以上のNPU搭載機を導入し、日常的な要約やドラフト作成、コード生成といったタスクをローカルの軽量言語モデル(SLM)へオフロードすることで、クラウドAPIへのアクセス頻度を劇的に削減できる。PC単体の導入コストが数万円高くなったとしても、クラウド推論コストの削減分と、ローカル処理によるレイテンシ低下がもたらす生産性向上によって、1年未満で十分なROIを回収することが可能である。
2nmプロセス技術がもたらす2026年以降のエッジAI進化論
現在の40 TOPSを巡るNPU性能競争は、コンピューティングの歴史において「序章」に過ぎない。ビジョナリーなCTOやディープテック投資家がすでに見据えているのは、次世代の半導体製造技術である「2nmプロセス」ノードが量産化される2026年以降の飛躍的な進化論である。
最先端のファウンドリ(TSMCやIntel Foundry)が推進する2nmプロセス世代では、従来のFinFET構造から、電流を四方から制御するGAAFET(Gate-All-Around)トランジスタ構造への移行が行われる。さらに、チップの裏側から電力を供給し信号線のノイズを減らす「裏面電力供給ネットワーク(Backside Power Delivery)」技術の採用により、同一電力でのパフォーマンスは現行の3nm/4nm世代と比較して劇的に向上し、消費電力を最大30%削減すると予測されている。
このトランジスタ密度の極限的な向上により、限られたダイ面積のなかにさらに多くのNPU(MACユニット)と大容量のSRAMを詰め込むことが可能となる。現在40〜50 TOPSであるPC向けNPUの実効性能は、2026年以降、100 TOPSから200 TOPSへと跳ね上がり、完全ファンレスの薄型デバイスであっても、データセンター級の推論能力を内包するようになる。
2026〜2030年の予測シナリオ:AIネイティブアーキテクチャの完成
2030年に向けて、エッジAIのエコシステムは想像を超える次元へと進化する。ハードウェアの進化とソフトウェアの最適化が極限まで融合することで、以下のような「AIネイティブ」なシナリオが現実のものとなるだろう。
- 数千億パラメータモデルのエッジ分散処理(Swarm AI): 単一のPC内で処理を完結するだけでなく、オフィス内の複数のAI PCがWi-Fi 7や次世代通信プロトコルで自律的に連携し、アイドリング中の他PCのNPUリソースをP2Pで借用して超巨大なLLMを分散推論する「スウォーム(群)コンピューティング」が実用化される。
- メモリ統合アーキテクチャの完成と光インターコネクト: 前述の「メモリウォール問題」を根本から解決するため、プロセッサとメモリ間の通信にシリコンフォトニクス(光通信)が導入され、テラバイト/秒(TB/s)クラスの超広帯域通信が実現する。これにより、ローカルAIの応答速度は人間の思考速度を凌駕する。
- 自律型AIエージェントOSの台頭: ユーザーがアプリケーションを明示的に操作する時代は終わり、OS自体が高度な推論能力を持つAIエージェントと化す。NPUが常時稼働し、画面の文脈、音声、ユーザーの生体情報を複合的に解析(マルチモーダル推論)し、自律的にタスクを先回りして実行する「完全なるアンビエントコンピューティング」が完成する。
テクノロジーの歴史は「メインフレーム(集中)」から「PC(分散)」、そして「クラウド(集中)」を経て、今再び「高度なエッジAI(自律分散)」へと明確に舵を切った。現在、NPU搭載の最新デバイスを導入し、ローカルAIを活用した業務プロセスの再設計に着手することは、単なるハードウェアのリプレースではない。それは、来たるべき「AIネイティブ時代」のビジネス基盤をいち早く構築し、競合他社に対する絶対的な技術的優位性(Moat:経済的な堀)を築くための、極めて戦略的かつ合理的な決断なのである。
よくある質問(FAQ)
Q. AI専用チップ(NPU)とは何ですか?
A. NPU(Neural Processing Unit)は、AI処理に特化した専用プロセッサです。クラウド経由ではなく、手元のPCや端末内でAIを動かす「ローカルAI」の中核を担います。これにより、超低遅延での処理や高度なプライバシー保護が可能になります。
Q. NPUとCPU・GPUの違いは何ですか?
A. CPUが汎用的な計算、GPUが画像などの並列処理を得意とするのに対し、NPUはAIタスクに特化したアーキテクチャを持ちます。最大の違いは圧倒的な省電力性能です。継続的なAI処理をCPUやGPUより少ない電力で効率よく実行し、システム全体の消費電力を最適化できます。
Q. AI PCの基準「40 TOPS」とは何ですか?
A. TOPSは1秒間に何兆回の演算ができるかを示す、AIの処理性能の指標です。Microsoftの「Copilot+ PC」では、手元で高度なAIタスクを動かすための新基準として「40 TOPS」以上のNPU性能が要件とされています。Core UltraやSnapdragon X Eliteなどの最新チップがこの基準を満たしています。