
Ollama ist eine Open-Source-Plattform zur lokalen Ausführung großer Sprachmodelle auf dem eigenen Rechner.
Vorteile sind lokale Verarbeitung, Datenschutz, API-Integration und Zugriff auf eine Modellbibliothek.
Der Kern ist Open-Source; Ollama Cloud bietet kostenlose Quoten und kostenpflichtige Pläne.
macOS, Windows und Linux; Docker-Deployment ist möglich.
Daten bleiben lokal beim Nutzer; die Cloud-Option hat spezifische Datenschutzbestimmungen.
Für kleinere Modelle mindestens 8 GB RAM; größere Modelle erfordern mehr RAM/GPU; ca. 20 GB freier Speicher empfohlen.

OpenClaw AI ist ein Open-Source-KI-Agenten-Framework, das lokal auf dem Endgerät läuft. Über natürliche Sprache lässt es Aufgaben definieren, ausführen und Informationen verarbeiten, wodurch sich Arbeitsabläufe automatisieren lassen. Nutzer können eigene KI-Modelle anbinden, API-Schlüssel verwalten und Self-Hosting-Optionen nutzen, um Daten außerhalb der Cloud zu halten. Das System unterstützt ein Skills-Plug-in-System, ermöglicht Kontextpersistenz über Sitzungen hinweg und lässt sich mit gängigen Messaging-Apps wie WhatsApp, Slack oder Telegram integrieren. OpenClaw AI fungiert als vielseitiges KI-Tool, das mehr als Dialog bietet: Es sortiert E-Mails, plant Termine, unterstützt Code-Aufgaben und führt Befehle im System aus, wenn dazu autorisiert. Die Lösung richtet sich an technisch versierte Anwender, Entwickler und Teams, die Privatsphäre und Kontrolle schätzen, ohne eine Markenbindung oder offizielle Unterstützung zu suggerieren.
Llama ist eine Open-Source-KI-Modellserie von Meta, die leistungsstarke Inferenzleistungen sowie native Multimodalität bietet. Die Modelle richten sich an Entwickler, Forschungsteams und Unternehmen, die KI-Anwendungen eigenständig bauen, testen und betreiben möchten. Sie unterstützen neben Text auch visuelle Eingaben und ermöglichen so eine integrierte Multimodalverarbeitung. Als Open-Source-Lösung lässt sich Llama lokal installieren, anpassen und in eigene Infrastrukturen integrieren, was Datenhoheit und Kostenkontrolle erleichtert. Die Produktpalette deckt verschiedene Leistungsstufen ab, sodass sich Prototyping, Forschung und produktionsnahe Anwendungen realisieren lassen. Die Nutzung erfolgt flexibel über API-Schnittstellen oder eigene Deployments, abhängig von den Anforderungen. Eine Evaluierung verschiedener Modelle kann helfen, Kosten, Performance und Datenschutzziele abzubilden.