Webcam Motion Capture ist eine Software, die mithilfe von KI und einer normalen Kamera Gesichtsausdrücke und Körperbewegungen erfasst und diese Daten zur Steuerung eines 3D-Charakters nutzt.
Nein. Die Lösung arbeitet mit einer herkömmlichen Webcam oder einem Smartphone und zielt darauf ab, die Hardwarebarriere zu senken.
Windows und macOS werden unterstützt, einschließlich Apple Silicon sowie Intel-basierter Macs.
Die erfassten Daten lassen sich per VMC-Protokoll an VTuber-Software wie VSeeFace sowie an Spiel-Engines wie Unity oder Unreal Engine senden; außerdem ist ein FBX-Export für Tools wie Blender oder Maya möglich.
Es gibt eine kostenlose Version; darüber hinaus können kostenpflichtige Optionen wie Abonnements oder Einmalzahlungen angeboten werden. Preise variieren je nach Anbieter und Funktionsumfang.
Gesichtsausdrücke, Lippenbewegungen, Blickrichtung, Blinzeln, Kopf- und Oberkörperbewegungen sowie Hand- und Fingerbewegungen.

Live3D ist ein KI Tool online für VTuber und virtuelle Content Creator. Es bietet einen vollständigen Workflow von der Avatar-Erstellung über Anpassung und Echtzeit-Tracking bis zur Live-Ausstrahlung. Nutzer können mit dem VTuber Maker per Webcam Gesichtsausdrücke und Kopfbewegungen erfassen, während der integrierte Editor VRM-/FBX-Modelle bearbeitet und individuelle Animationen erzeugt. Integrierte OBS Virtual Camera erleichtert das Live-Setup, und eine Bibliothek mit 3D-Modellen sowie Dekorationen senkt die Einstiegshürde. Über Blockly lassen sich Trigger und Logik programmieren, wodurch sich fortgeschrittene Interaktionen realisieren lassen. Das Tool lässt sich eigenständig nutzen und richtet sich an Creator, Lehrende und Streamer, die eine anpassbare 3D-Identität benötigen.

DeepMotion AI-Motion-Capture ist eine KI-gestützte, markerlose Bewegungsaufnahme-Plattform. Aus gewöhnlichen Videoaufnahmen oder Textbeschreibungen generiert sie hochwertige 3D-Animationen, ohne spezielle MoCap-Hardware. Das KI-Tool richtet sich an Entwickler und Produzenten, die Kosten senken und Arbeitsprozesse beschleunigen möchten. Nutzer können Bewegungen aus Videos extrahieren oder Animationssequenzen direkt aus Textbeschreibungen erstellen. Die Lösung passt sich an Charaktermodelle wie MetaHuman an und lässt sich in Engines wie Unreal Engine 5 integrieren. Exportformate umfassen FBX, GLB und BVH, sodass sich Workflows mit Blender, Maya oder anderen 3D-Tools fortführen lassen. Die HybridTrack-Technologie kombiniert inertiale Sensorik mit optischer Erfassung, um die Qualität unter unterschiedlichen Licht- und Umgebungsbedingungen zu erhöhen. Als AI Tool online verfügbar, eignet es sich für schnelle Prototypen, kosteneffiziente Produktionen und iterative Animationen.