
Ollama est un cadre open source conçu pour simplifier le déploiement, la gestion et l'exécution locaux de grands modèles de langage sur un ordinateur personnel.
Ses principaux atouts sont l'exécution entièrement locale garantissant la confidentialité des données, une installation et une utilisation simples, et une API flexible facilitant l'intégration par les développeurs.
Le cœur d'Ollama est gratuit et open source. Ollama Cloud propose des quotas gratuits et des formules payantes Pro et Max pour des limites plus élevées et de meilleures performances.
Ollama est compatible avec macOS, Windows et les principales distributions Linux. Les utilisateurs peuvent télécharger le package d'installation correspondant depuis le site officiel ou déployer via Docker.
Le modèle s'exécute sur le matériel local de l'utilisateur, les données ne sont pas envoyées vers le cloud. Son service cloud s'engage également à ne pas conserver les requêtes des utilisateurs, en mettant l'accent sur la protection de la vie privée.
Il est conseillé d'avoir au moins 8 Go de RAM pour faire tourner des modèles de 7 milliards de paramètres; pour des modèles plus volumineux, davantage de mémoire et de VRAM. Prévoir plus de 20 Go d'espace disque pour stocker les modèles.

OpenClaw AI est un cadre d'agents IA personnels et open source qui s'exécute localement et permet, via des interactions en langage naturel, d'automatiser des tâches, de traiter l'information et de s'intégrer dans les workflows existants.
Llama est une série de modèles d’IA open source développée par Meta, offrant des performances de pointe et des capacités multimodales, pour aider les développeurs et les entreprises à concevoir et déployer des applications d’IA haute performance.