
Ollama es un marco de código abierto diseñado para facilitar el despliegue, la gestión y la ejecución local de grandes modelos de lenguaje en ordenadores personales.
Sus principales ventajas son la ejecución completamente local que garantiza la privacidad de los datos, una instalación y uso simples y fáciles de manejar, y APIs flexibles que facilitan la integración para los desarrolladores.
El marco central de Ollama es de código abierto y gratis. Ollama Cloud ofrece cuotas gratuitas y hay planes de pago como Pro y Max para obtener límites de uso y rendimiento superiores.
Ollama es compatible con los principales sistemas operativos macOS, Windows y Linux; los usuarios pueden descargar el instalador correspondiente desde el sitio oficial o usar Docker para implementarlo.
El modelo se ejecuta en el hardware local del usuario, y los datos no se envían a la nube. Su servicio en la nube también se compromete a no conservar las consultas de los usuarios, priorizando la protección de la privacidad.
Se recomienda al menos 8 GB de RAM para ejecutar modelos de 7B parámetros; para modelos más grandes se requieren más memoria y VRAM. Se recomienda disponer de más de 20 GB de espacio en disco para almacenar los modelos.

OpenClaw AI es un marco de agentes de IA personales de código abierto que puede ejecutarse en dispositivos locales y, mediante interacción en lenguaje natural, ayuda a automatizar tareas, gestionar información e integrarse en flujos de trabajo existentes.
Llama es una familia de modelos de IA de código abierto lanzada por Meta, que ofrece rendimiento de punta y capacidades multimodales, para ayudar a desarrolladores y empresas a construir y desplegar aplicaciones de IA de alto rendimiento de manera eficiente.