技術の巨人は、ライバルのNvidiaシステムの観点から、それがはるかに高速で効率的であることについて絶賛しているのを見ることができます。このニュースは、テクノロジー業界が今日最もホットな学習モデルで溢れているときに来ます。
AI市場に関する限り、Nvidiaは間違いなくリストのトップにあり、AIモデルの優れたトレーニングとそれらを使用するために展開できるようにするという点で、しばらくの間支配的でした。市場の90%以上がこのシステムで満たされていることを忘れないでください。
ただし、テクノロジーの巨人が、テンソルプロセッシングユニットと呼ばれるAIチップの設計と展開にどのように立ち上がっているかを忘れないでください。これらは2016年から行われています。
確かに、Googleはマーケットリーダーであり、AIの世界における巨大なパイオニアです。そして、同社の労働力の多くは、過去10年間でこの分野で最高の進歩を生み出してきました。しかし同時に、そのような発明を商業的に利用できるようにすることになると、遅れをとる傾向があると感じる人もいます。
同様に、コードレッドアラートで明らかになったように、同社は製品を設定し、業界でのリードを失うことにまだ熱心ではないことを証明するために内部的にどのように競争しているかを見てきました。
ご存じない方のために説明すると、GoogleのBardを含む同社の製品とAIモデルの多くは、Nvidiaが提供するA100チップによって動作しています。同じことがOpenAIの人気のあるAIツールChatGPTにも当てはまります。
このような発明は、コンピューターが数週間から数か月も走り回る傾向がある間、モデルのトレーニングを可能にするために、実際には多くのコンピューターとさらに多くのチップを1つとして機能させる必要があります。
最近、Googleは、システムが4000個のTPUをどのように生成し、それらをカスタマイズされた部品と組み合わせて実行し、AI業界のモデルをトレーニングしたかなど、いくつかの興味深い調査結果を発表しました。それは過去3年間、手に入れ、実行していると付け加えました。
同様に、GPTテクノロジーと競合する同社のPaLMモデルを約50日間でトレーニングしているのを見ることができます。さらに、同社の研究者は、Nvidiaと比較した場合の優れた速度と効率を証明する統計を書き留めました。
パフォーマンスから可用性まで、Googleのスーパーコンピューターは独自のリーグにあり、これらの主力製品を巨大な言語モデルと呼ぶのは間違いではありません。そうは言っても、H100と呼ばれるAIチップであるNvidiaによる最新の発明と比較されるのは見えませんでした。
この製品は非常に新しく、今日最も先進的な技術を使用して設計されています。
これらのものは安くはなく、非常に多くの主要な市場プレーヤーがこの分野に参入しているため、Googleがそのゲームのトップにいる必要があることは非常に明白であり、それがまさにそれを行っている理由です。