
DigitalOcean AI Inference é o serviço de inferência de modelos de IA da DigitalOcean, que inclui instâncias com GPU e opções sem servidor, criado para facilitar a implantação e a escala de aplicações de IA.
Inclui principalmente GPU Droplets (VMs com GPU), suporte a GPUs no DOKS, GPUs bare-metal e inferência sem servidor oferecida pela Gradient™ AI Platform.
Suporta opções de GPUs da NVIDIA (por exemplo, H100) e da AMD (por exemplo, Instinct™ MI350X), com configurações que vão de single-GPU a multi-GPU.
Pelo Gradient™ AI Platform, você pode chamar modelos diretamente por endpoints de API sem gerenciar instâncias; o sistema escala e aloca recursos de inferência automaticamente, cobrando conforme o uso.
É indicado para desenvolvedores, startups e empresas digitais que realizam experimentos de IA, treinamentos de modelos, deploy de aplicações em tempo real e gestão de cargas de inferência em produção.
As principais formas incluem: usar inferência sem servidor pela plataforma Gradient™, criar e gerenciar manualmente instâncias GPU Droplets, ou usar templates de deploy com um clique para ambientes conteinerizados.
Oferece estrutura de preços transparente, com opções de instâncias GPU sob demanda e alternativas sem servidor cobradas conforme o uso, projetadas para tornar os custos mais previsíveis.
Suporta a inferência hospedada de modelos base populares, incluindo modelos como Claude Opus, e disponibiliza endpoints para modelos open-source de destaque.
A IA de Fluxo de Silício oferece uma plataforma de IA generativa em nuvem, integrada com mais de 50 modelos de código aberto líderes, acelerada por nosso motor de inferência proprietário e com custos otimizados, ajudando desenvolvedores e empresas a criar rapidamente aplicações de IA.
SaladAI é uma plataforma de nuvem distribuída de GPUs que agrega poder de cálculo ocioso global para oferecer serviços de computação com excelente relação custo-benefício para inferência de IA, processamento em lote e outras tarefas, ajudando as empresas a reduzir significativamente os custos com nuvem.