オープンAI、マイクロソフト、アマゾンなどが争奪戦に

エヌビディアは、AIチップの設計と開発に徹底的に集中している。同社はAIプロセッサーを顧客がより有効に活用するソフトウェア面でも優位性が高い。一方、AMDはゲーム、インテルはファウンドリー事業など複数の分野に手を広げた。結果的に加速度的なAI分野の成長に対応することが難しくなっている。

エヌビディアとAMD、インテルなどの競争力の差はさらに拡大する可能性は高いだろう。3月、エヌビディアはH100の後継モデルの“H200”を発表した。年内に次世代GPUの“B200”も投入予定だ。

H200は、H100よりも最大で45%処理速度が速いとされる。B200とCPU(中央演算処理装置)を組み合わせて最新の大規模言語モデル(LLM)に活用すると、処理能力はH100の約30倍に上昇する見込みだ。エヌビディアによると、B200の電力消費は現行機種の25分の1という。

高性能な新型プロセッサーの発表が近いにもかかわらず、H100の需要は想定以上に増えた。オープンAI、マイクロソフト、アルファベット(グーグル親会社)、アマゾン、メタなどの主要IT先端企業にとって、今、可能な限りより多くのエヌビディアのAI半導体を確保すことが、AI分野での競争力に重要なファクターになっている。

オフラインでAIが使える時代がやってくる

エヌビディアの成長に伴い、世界のデジタル化は新しい局面を迎えている。重要な変化の一つは、“エッジAI”を搭載したパソコンの登場だ。エッジAIとは、パソコンやスマホなど端末上で動くAIをいう。

従来、AIを使うために、ユーザーはデータセンター(サーバー上)にあるAIにアクセスする必要があった。この場合、まず、ユーザーが端末に指示内容を入力する必要がある。指示に基づいてサーバーにあるAIが推論を行う。結果はネットを経由してユーザーの端末(エッジ)に送信される。ネットに接続していることがAI利用に欠かせない。

エッジAIの場合、ネットに接続せずに端末上でAIを使うことができる。ネット上のクラウド空間にあるAIに比べ性能は限定的だが、翻訳などを行うことができる。また、端末上でAIの動作が完結するため、ユーザーのデータ保護にも役立つ。サーバーと通信しない分、理論上、反応の遅延もない。通信コストの節約にも有効だ。