Wain AI/Tech Blog

世界のAIニュースブログ

広告
広告スペース(728x90)

Groq:AI推論に特化したLPUチップで超高速処理を実現するスタートアップの全容

Google TPUの開発者が創業したGroqは、独自のLPU(Language Processing Unit)により、GPUを大きく上回る推論速度を実現。2025年には6000億円超の企業価値を達成し、AI推論インフラの新たな選択肢を提供する

Groq:AI推論に特化したLPUチップで超高速処理を実現するスタートアップの全容

AI開発において、モデルのトレーニングとは別に、実際にモデルを運用する「推論」フェーズの処理速度とコスト効率が大きな課題となっています。2016年に創業されたGroqは、この推論処理に特化した革新的なアプローチで、AI業界に新たな選択肢を提供しています。

創業者のジョナサン・ロス(Jonathan Ross)氏は、かつてGoogleでTensor Processing Unit(TPU)の開発を主導した人物です。彼が率いるGroqは、独自開発のLPU(Language Processing Unit)により、従来のGPUと比較して最大18倍高速な推論処理を実現1。2025年8月時点で、同社の企業価値は約60億ドル(約9000億円)に達し、サウジアラビアから15億ドル(約2250億円)の資金調達にも成功しています2

LPUテクノロジー:GPUとは異なる設計思想

ソフトウェアファーストのアプローチ

Groqの最大の特徴は、従来のハードウェア中心の開発とは異なり、「ソフトウェアファースト」のアプローチを採用している点です。LPUは、AI推論に必要な線形代数演算に特化して設計されており、汎用的な処理を前提とするGPUとは根本的に設計思想が異なります3

LPUアーキテクチャの核心は、「プログラマブル・アセンブリライン」と呼ばれる独自の構造にあります。データと命令が「コンベアベルト」のように流れ、チップ内の各機能ユニット間を効率的に移動します。この設計により、処理のボトルネックを排除し、一貫した高速処理を実現しています3

オンチップメモリによる高速化

LPUの推論速度が飛躍的に向上する最大の要因は、メモリ帯域幅の差にあります。GroqのオンチップSRAMは80テラバイト/秒以上のメモリ帯域幅を持つのに対し、GPUのオフチップHBMは約8テラバイト/秒に留まります。この10倍の差が、LPUの速度優位性の基盤となっています1

さらに、メモリとコンピュートを同一チップ上に統合することで、データの取得に必要な往復時間を削減。これにより、エネルギー消費も大幅に削減され、GPUと比較して最大10倍のエネルギー効率を実現しています3

実績と市場展開

驚異的な処理性能

2023年8月、GroqはMeta社のLlama2-70Bモデルを実行し、業界で初めて毎秒100トークン以上の生成速度を達成しました1。これは、一般的なクラウドベースのプロバイダーと比較して18倍高速な処理速度です。ChatGPTがGroqのチップで動作した場合、現在の約13倍の速度で実行できると推定されています1

急速な市場拡大

Groqの開発プラットフォーム「GroqCloud」は、2024年2月のソフトローンチ以来、わずか18ヶ月で36万人以上の開発者を獲得。Fortune 100企業の75%がプラットフォーム上にアカウントを保有し、累計200万近い開発者とチームがサービスを利用しています2

2025年第1四半期末までに、同社は108,000個以上のLPUを展開予定。これは、非ハイパースケーラーとしては最大規模のAI推論コンピュート展開となります2

創業者ジョナサン・ロスの経歴とビジョン

Google TPUからGroqへ

ジョナサン・ロス氏は、ニューヨーク大学クーラン研究所でヤン・ルカン(Yann LeCun)教授の下で学びました。その後Googleに入社し、20%プロジェクトとしてTPU(Tensor Processing Unit)の開発を開始。第1世代TPUチップの中核要素を設計・実装し、GoogleのAIインフラストラクチャに大きく貢献しました4

その後、Google Xの「Rapid Eval Team」に参加し、Alphabet向けの新規事業を企画・インキュベート。この経験を経て、2016年に元Google X エンジニアのダグラス・ワイトマン(Douglas Wightman)氏らと共にGroqを創業しました4

2027年までに世界のAI計算能力を倍増

ロス氏は、「2027年までに世界のAI計算能力を倍増させる」という壮大なビジョンを掲げています5。このビジョン実現に向けて、同社は積極的なインフラ拡張を進めています。

2025年2月にはサウジアラビアから15億ドルの資金調達を発表し、19,000個以上のLPUを持つ非ハイパースケーラー最大の推論クラスターを構築中です2。また、カナダのBell社との独占パートナーシップや、ノルウェーでのクリーンエネルギーAIコンピュートセンター建設など、グローバル展開も加速しています2

資金調達と企業価値の推移

ユニコーン企業への成長

Groqの資金調達の歴史は、同社の急速な成長を物語っています:

  • 2017年: Social CapitalのChamath Palihapitiya氏から1000万ドルのシード資金を調達4
  • 2021年4月: Tiger Global ManagementとD1 Capital Partners主導でシリーズCラウンド3億ドルを調達、企業価値10億ドル超でユニコーン化4
  • 2024年8月: BlackRock Private Equity Partners主導でシリーズDラウンド6億4000万ドルを調達、企業価値28億ドル2
  • 2025年8月: Disruptive主導で約6億ドルの新規ラウンドを協議中、企業価値約60億ドル2

わずか1年で企業価値が2倍以上に成長し、累計調達額は10億ドル以上に達しています。

ビジネスモデルの転換

当初はハードウェア販売中心だったGroqは、現在クラウドファーストのビジネスモデルに転換。企業がGroqのチップ上でAIを実行するためのクラウドサービスを提供し、OpenAIやAWSのAIサービスと同様の収益モデルを採用しています2

2024年の売上は約9000万ドルと推定され、2025年には5億ドルの売上を見込んでいます2。ただし、The Information誌は、同社が2025年の売上予測を10億ドル以上下方修正したと報じており、成長の課題も存在します。

技術的優位性と今後の展望

第2世代LPUへの進化

現在のLPUは14ナノメートルプロセスで製造されていますが、第2世代LPU(LPU v2)はSamsungの4ナノメートルプロセスで製造予定です。プロセスの微細化により、LPUアーキテクチャの性能優位性はさらに拡大すると期待されています1

決定論的コンピューティングの利点

LPUの「完全に予測可能」な実行特性は、開発者にとって大きな利点となります。いつ、どこで演算が実行されるかを正確に把握できるため、ソフトウェア開発者はハードウェアの利用効率を最大化できます3

この決定論的な性質により、モデルに依存しない汎用的なコンパイラの開発も可能になり、様々なAIモデルへの対応が容易になっています。

競争環境と市場ポジション

NVIDIA独占への挑戦

AI推論市場は現在NVIDIAのGPUが圧倒的なシェアを持っていますが、Groqは推論特化型のアプローチで差別化を図っています。トレーニングではなく推論に焦点を絞ることで、より効率的でコスト効果の高いソリューションを提供しています。

大手企業の採用実績

Dropbox、Vercel、Volkswagen、Canva、Robinhood、Riot Gamesなど、多様な業界の大手企業がGroqの技術を採用。特に、リアルタイム性が求められるアプリケーションや、大量の推論処理を必要とするサービスで採用が進んでいます3

Groqが提供するLPUテクノロジーとAI推論インフラの詳細については、同社の公式ウェブサイトでアーキテクチャの解説や開発者向けドキュメントが公開されています。また、GroqCloudプラットフォームでは、開発者が実際にLPUの性能を体験できる無料トライアルも提供されています。

Sources

  1. Groq LPU Language Processing Unit AI inference speed 2025 - Web Search Results - Groq公式ブログ・技術解説
  2. Groq funding 2024 2025 revenue valuation latest news - Web Search Results - TechCrunch・資金調達報道
  3. What is a Language Processing Unit? - Groq公式ブログ・LPU技術詳細
  4. Jonathan Ross: ‘Every. Word. Matters.’ - Groq公式ブログ・創業者インタビュー
  5. Jonathan Ross LinkedIn Profile - LinkedIn・創業者プロフィール