Cerebras は、高性能AI計算ハードウェアに特化した企業で、コア製品はウェハー級エンジン(WSE)です。従来のGPUが超大規模AIモデルの訓練と推論を行う際に直面するメモリ帯域幅のボトルネックと計算効率の問題を主に解決します。
WSEチップは巨大な面積を持ち、莫大な計算コアと高帯域メモリを単一チップに統合しており、データ通信遅延を大幅に減らします。その結果、大規模モデルの訓練と推論で桁違いの速度向上とエネルギー効率の改善を実現します。
Cerebras は、すべてのモデルアクセスとコミュニティサポートを含む、無料の Inference API アクセス層を提供します。有料の Developer および Enterprise レベルでは、より高いレート制限、優先処理、カスタムモデル、専用サポートなどのサービスが提供されます。
大規模AIモデルの訓練やデプロイを必要とするテック企業・研究機関・世界のトップ1000社、そして高性能・低コストの主権AIソリューションを構築しようとする国や地域の組織に適しています。
Cerebras のソフトウェアプラットフォームは TensorFlow および PyTorch に対応しており、プログラミングを簡素化します。ユーザーは複雑な分散システムを管理する必要がなく、大規模AI計算の技術的ハードルを低減します。
焰火AIは、企業向けの生成型AI推論プラットフォームで、高速推論エンジンとカスタマイズ可能な微調整サービスを提供し、開発者と企業が高品質なAIアプリを迅速に構築・デプロイ・最適化するのを支援します。
MindSporeは華為が提供するオープンソースの全場面対応AI計算フレームワークです。データセンターからエンドデバイスまでの深層学習モデルの開発・訓練・デプロイをサポートします。動的・静的の統合プログラミングや自動並列化などの特長を通じて、開発者に高効率で柔軟なAI開発体験を提供し、昇腾などのハードウェア性能を深く最適化します。

Cerebrium AI は、高性能なサーバーレスAIインフラストラクチャプラットフォームで、開発者がリアルタイムAIアプリケーションを迅速にデプロイおよびスケールできるよう支援し、運用負荷ゼロとオンデマンド課金を実現して、開発コストを大幅に削減します。

Zyphra AIは、人工知能の研究と製品開発に特化する企業で、オープンソースの超知能を実現するフルスタック技術を追求しています。製品ラインには基盤モデル、推論プラットフォーム、エージェントシステムが含まれ、企業や開発者に対してモデル訓練、推論サービス、アプリケーション展開までのソリューションを提供し、個人と組織のAIイノベーションを促進します。

ZBrain AI は、エンタープライズレベルのAIエージェントオーケストレーションプラットフォームです。ローコードの手法を用いて企業がカスタマイズされたAIアプリを構築・デプロイ・管理するのを支援し、運用効率と意思決定の質を向上させます。
Zerve AI は、データサイエンティストとチーム向けに設計されたAIネイティブなデータ作業プラットフォームです。適応型AIエージェントと統合ワークスペースを通じて、データ探索からデプロイメントまでの完全な協働ワークフローを実現します。

Inferless AI は、サーバーレス GPU 推論プラットフォームで、機械学習モデルの本番デプロイをシンプルにすることに焦点を当て、オートスケーリングとコスト最適化を提供し、開発者が高性能な AI アプリケーションを迅速に構築できるよう支援します。

Cirrascale AIクラウドは、人工知能と高性能計算に特化した専用クラウドプラットフォームです。複数ベンダーのAIアクセラレータを裸機で直接利用でき、企業や開発者がモデルのトレーニング、ファインチューニング、推論デプロイを高効率で実行できるよう支援します。

Tensorfuse AIは、サーバーレスGPU計算プラットフォームで、開発者が自社のクラウド環境で生成型AIモデルをデプロイ・管理・自動スケーリングするのを支援し、モデル開発とデプロイの効率向上に注力します。
ゼータAIチップは、RISC-Vベースの高効率AI計算チップで、ストレージと演算を一体化したアーキテクチャとChipletを採用し、エッジコンピューティングとAI推論に優れた性能と省エネ性能を提供することを目的としています。