IT House の 6 月 25 日のレポートによると、AI スタートアップの MosaicML は最近、言語モデル MPT-30B をリリースしました。このモデルには 300 億のパラメータがあり、トレーニング コストは「他の同様の競合モデルのほんの一部です。」 AIモデルの応用をより幅広い分野に拡大します。 MosaicML の CEO 兼共同創設者である Naveen Rao 氏は、MPT-30B のトレーニング費用は 70 万米ドル (約 502 億 4,400 万元) であり、GPT などの同様の製品に必要な数千万ドルよりもはるかに低いと述べました。 3.さらに、MPT-30B はコストが低く、サイズも小さいため、より迅速にトレーニングすることができ、ローカル ハードウェアへの展開により適しています。 MosaicML は、Alibi と FlashAttend テクノロジーを使用してモデルを最適化し、テキストの長さを長くし、GPU コンピューティングの利用率を高めることができると報告されています。 MosaicML は Nvidia H100 GPU を使用できる数少ないラボの 1 つでもあり、以前の成果と比較して、各 GPU の現在のスループットは 2.4 倍以上増加し、完了時間を短縮できます。