
NVIDIAがAIチップの新興企業「Groq」と提携した、というニュースがありました。
一見すると、半導体業界のマニア向けの話に見えるかもしれません。
でも実はこれは、これからAIがどう使われるようになるかを決める、とても大きな出来事です。
これまでのAIの競争は、「どれだけ賢く学習できるか」でした。
NVIDIAのGPUや、GoogleのTPUは、AIに大量のデータを食べさせて賢くするための“計算工場”です。
いわば、何百万問もの問題集を一気に解かせて、頭を良くする機械です。
しかしChatGPTのようなAIが普及した今、人間が本当に困っているのは別のところにあります。
それは、AIの返事が遅くて高いという問題です。
AIはすでに十分に賢い。でも、質問すると「返事が遅い」「電気代がかかる」「サーバーが足りない」という問題があります。
これが、いま世界中で起きているボトルネックです。
ここで登場するのが、Groqの「LPU」というチップです。
LPUは、AIが言葉を1語ずつ出すことだけに特化した、非常に変わった半導体です。
GPUやTPUが「AIを育てる工場」だとすれば、LPUは「AIがしゃべるための脳」や「口」に近い存在です。
無駄な機能を徹底的に削り、次の単語を決める処理だけを、とにかく速く、正確に、止まらずに実行できるように作られています。
その結果、ChatGPTのようなAIが驚くほど速く、安く、安定して返事を返せるようになります。
さらにGroqの面白いところは、このLPUを最新の超微細な半導体ではなく、少し古い世代の製造技術(14ナノクラス)で作っていることです。
これは後退ではありません。
いま最先端の半導体工場は取り合いで、価格も高騰しています。
一方で、少し古い工場は空きがあり、安く、早く、大量に作ることができます。
しかもLPUは設計がシンプルなので、最先端の製造技術を使わなくても十分に高性能なのです。
つまりGroqは、半導体不足と高騰を避けながら、AIを大量に動かせる仕組みを作った会社なのです。
NVIDIAがGroqと組んだ本当の理由はここにあります。
NVIDIAはすでに、世界一の「AIを育てる工場」を持っています。
しかしこれから必要なのは、世界中の人が同時にAIと会話できる「返事を返すインフラ」です。
その最後のピースが、GroqのLPUでした。
これは、「より賢いAI」を作る話ではありません。
「誰もが、いつでも、AIと話せる世界」を作る話です。
NVIDIAとGroqの提携は、AIが研究室の技術から、社会のインフラへ変わる瞬間を象徴しています。

English website