Cerebras는 고성능 AI 컴퓨팅 하드웨어에 집중하는 기업으로, 핵심 제품은 웨이퍼급 엔진(WSE)입니다. 이 기술은 전통적인 GPU가 초대형 AI 모델의 학습과 추론에서 직면하는 메모리 대역폭 병목과 계산 효율성 문제를 해결하는 것이 주된 목표로 합니다.
WSE 칩은 면적이 크고 대량의 계산 코어와 고대역폭 메모리를 단일 칩에 통합해 데이터 통신 지연을 대폭 줄이며, 대형 모델의 학습과 추론에서 수십 배의 속도 향상과 에너지 효율 최적화를 실현합니다.
Cerebras는 모든 모델 접근과 커뮤니티 지원을 포함하는 무료 Inference API 접근 계층을 제공합니다. 개발자(Developer) 및 엔터프라이즈(Enterprise) 유료 계층은 더 높은 속도 제한, 우선 처리, 맞춤형 모델 및 전담 지원 등의 서비스를 제공합니다.
대규모 AI 모델을 학습하거나 배포해야 하는 기술 기업, 연구기관, 글로벌 상위 1000대 기업, 그리고 고성능의 저비용 주권 AI 솔루션을 구축하려는 국가나 지역 조직에 적합합니다.
Cerebras의 소프트웨어 플랫폼은 TensorFlow와 PyTorch와 호환되며, 프로그래밍을 간소화하고 사용자가 복잡한 분산 시스템을 관리하지 않아도 되도록 설계되어 대규모 AI 컴퓨팅의 기술적 진입 장벽을 낮춥니다.
불꽃AI는 기업용 생성형 AI 추론 플랫폼으로, 고속 추론 엔진과 맞춤형 미세조정 서비스를 제공하여 개발자와 기업이 고품질의 AI 애플리케이션을 빠르게 구축하고 배포하며 최적화하는 데 도움을 줍니다.
MindSpore는 화웨이가 출시한 오픈 소스 전장면 AI 계산 프레임워크로, 데이터 센터에서 엔드 디바이스까지의 딥러닝 모델 개발, 학습 및 배포를 지원합니다. 동적/정적 통합 프로그래밍, 자동 병렬성 등의 특징을 통해 개발자에게 효율적이고 유연한 AI 개발 경험을 제공하고 Ascend AI 프로세서 등의 하드웨어 성능을 깊이 최적화합니다.

Cerebrium AI는 개발자가 실시간 AI 애플리케이션을 빠르고 안정적으로 배포·확장하도록 돕는 고성능 서버리스 AI 인프라 플랫폼으로, 운영 부담 없이 필요에 따라 비용을 지불하는 방식으로 개발 비용을 크게 낮춥니다.

Zyphra AI는 인공지능 연구와 제품 개발에 주력하는 기업으로, 오픈소스 기반의 풀스택 슈퍼인텔리전스 기술을 구축하는 데 힘쓰고 있습니다. 기저 모델, 추론 플랫폼, 에이전트 시스템을 포함한 제품군을 통해 모델 학습·추론 서비스부터 애플리케이션 배포까지 기업과 개발자에게 통합 솔루션을 제공하며, 개인과 조직의 AI 혁신 역량 강화를 목표로 합니다.

ZBrain AI는 엔터프라이즈급 에이전트 AI 오케스트레이션 플랫폼으로, 로우코드 방식으로 기업이 맞춤형 AI 애플리케이션을 구축하고 배포하며 관리하도록 돕고, 운영 효율성과 의사결정의 질을 향상시킵니다.
Zerve AI는 코드 우선 데이터 과학자와 팀을 위해 설계된 AI 네이티브 데이터 작업 플랫폼으로, 적응형 AI 에이전트와 통합 워크스페이스를 통해 데이터 탐색부터 배포까지의 전체 협업 워크플로를 구현합니다.

Inferless AI 는 서버리스 GPU 추론 플랫폼으로, 기계학습 모델의 생산적 배포를 간소화하는 데 초점을 맞추고 있으며, 자동 확장/축소 및 비용 최적화를 제공하여 개발자가 고성능 AI 애플리케이션을 빠르게 구축할 수 있도록 돕습니다.

Cirrascale AI 클라우드는 인공지능(AI)과 고성능컴퓨팅(HPC)에 특화된 전용 클라우드 플랫폼으로, 다수 제조사의 AI 가속기를 베어메탈로 직접 제공해 기업과 개발자가 모델 학습·파인튜닝·추론 배포를 효율적으로 수행할 수 있도록 지원합니다.

Tensorfuse AI는 서버리스 GPU 컴퓨팅 플랫폼으로, 사용자의 프라이빗 클라우드 환경에서 생성형 AI 모델의 배포·관리 및 자동 확장을 지원합니다. 모델 개발과 배포의 효율성을 높이는 데 집중합니다.
제타 AI 칩은 RISC-V 기반의 고효율 AI 계산 칩으로, 저장소-계산 일체형 구조와 칩렛 아키텍처를 채택하여 엣지 컴퓨팅과 AI 추론에서 뛰어난 성능과 에너지 효율을 제공합니다.