PixVerse CLI: KI-Video- und Bildgenerierung für Entwickler
Erfahren Sie, wie Sie die PixVerse CLI installieren, Ihr erstes KI-Bild und -Video generieren und kreative Workflows in Claude Code, Cursor und KI-Agenten automatisieren.
PixVerse CLI: KI-Video- und Bildgenerierung für Entwickler
Einführung
Jeder kreative Workflow hat einen Engpass — den Moment, in dem Sie Ihren Code-Editor verlassen, einen Browser öffnen und manuell durch eine Weboberfläche klicken müssen, um ein Medienelement zu generieren. Für Entwickler, KI-Agenten und alle, die automatisierte Content-Pipelines erstellen, ist dieser Kontextwechsel eine Reibung, die sich schnell summiert.
PixVerse CLI beseitigt diesen Engpass. Es ist die offizielle Befehlszeilenschnittstelle für PixVerse und bietet Ihnen Zugriff auf jedes Modell, jede Funktion und jede Fähigkeit der PixVerse-Plattform — direkt aus Ihrem Terminal. Text-zu-Video, Bild-zu-Video, Text-zu-Bild, Lippensynchronisierung, Soundeffekte, Hochskalierung — alles skriptfähig, alles kombinierbar, alles verfügbar ohne einen Browser zu berühren.
Was die PixVerse CLI besonders leistungsstark macht, ist ihre Designphilosophie: Sie wurde mit KI-Agenten im Hinterkopf entwickelt. Jeder Befehl gibt strukturiertes JSON aus, jeder Exit-Code ist deterministisch und jeder Pipeline-Schritt ist kombinierbar. Das bedeutet, Sie können Claude Code, Cursor, Codex oder jeden anderen Agenten dazu bringen, Bilder und Videos in Ihrem Auftrag zu generieren — und sie werden es jedes Mal korrekt tun.
Dieser Leitfaden führt Sie durch den gesamten Weg: von der Installation bis zur ersten Generierung, dann weiter zu mehrstufigen Automatisierungs-Pipelines und agentennativen Workflows.
Voraussetzungen
Bevor Sie beginnen, benötigen Sie:
- Node.js 20 oder höher — prüfen Sie mit
node --version - Ein PixVerse-Konto — registrieren Sie sich unter pixverse.ai
- Ein aktives PixVerse-Abonnement — die CLI verwendet dasselbe Kreditsystem wie die Website; nur Abonnenten können Inhalte generieren
Die PixVerse CLI erfordert kein manuelles Kopieren von API-Schlüsseln. Die Authentifizierung erfolgt über einen browserbasierten OAuth-Ablauf, der Ihr Token lokal speichert.
Schritt 1: CLI installieren
Installieren Sie global mit npm:
npm install -g pixverseÜberprüfen Sie die Installation:
pixverse --versionWenn Sie nicht global installieren möchten, können Sie Befehle auch über npx ausführen:
npx pixverse create video --prompt "A cat walking on Mars"Schritt 2: Authentifizierung
Führen Sie den Login-Befehl aus:
pixverse auth loginDie CLI gibt eine kurze URL und einen Code aus. Öffnen Sie die URL in Ihrem Browser, geben Sie den Code ein und autorisieren Sie sich mit Ihrem PixVerse-Konto. Ihr Token wird automatisch in ~/.pixverse/ gespeichert und ist 30 Tage lang gültig.
Um zu überprüfen, ob Sie eingeloggt sind, und Ihre verfügbaren Kredite einzusehen:
pixverse auth status
pixverse account infoDer Befehl account info zeigt Ihre Abonnementstufe, verbleibende Kredite und den täglichen Kredit-Reset-Zeitplan an. Überprüfen Sie immer Ihr Guthaben, bevor Sie Batch-Jobs ausführen.
Schritt 3: Ihr erstes Bild generieren
Die Text-zu-Bild-Generierung ist der schnellste Weg, Ihre Einrichtung zu testen. Führen Sie folgenden Befehl aus:
pixverse create image --prompt "A photorealistic forest path at golden hour" --jsonDas Flag --json gibt strukturierte Ausgabe zurück:
{
"image_id": 789012,
"status": "completed",
"image_url": "https://...",
"prompt": "A photorealistic forest path at golden hour",
"model": "qwen-image",
"width": 1024,
"height": 1024
}Für eine höhere Auflösung geben Sie ein Modell an, das diese unterstützt:
pixverse create image \
--prompt "A photorealistic forest path at golden hour" \
--model seedream-5.0-lite \
--quality 1800p \
--aspect-ratio 16:9 \
--jsonPixVerse unterstützt mehrere Bildmodelle, jedes mit unterschiedlichen Auflösungsobergrenzen und Stärken:
| Modell | Maximale Auflösung | Am besten geeignet für |
|---|---|---|
qwen-image | 1080p | Schnelle Generierung, allgemeine Verwendung |
seedream-5.0-lite | 1800p | Detailreiche kreative Bilder |
seedream-4.5 | 2160p | Ultra-hohe Auflösung |
gemini-3.1-flash (Nano Banana 2) | 2160p | Breiter Auflösungsbereich, schnell |
gemini-3.0 (Nano Banana Pro) | 2160p | Hohe Qualität in großem Maßstab |
gemini-2.5-flash (Nano Banana) | 1080p | Leichtgewichtig, schnelle Durchlaufzeit |
Um das generierte Bild herunterzuladen:
pixverse asset download 789012Schritt 4: Ihr erstes Video generieren
Text-zu-Video funktioniert auf die gleiche Weise. Generieren Sie einen 5-Sekunden-Clip:
pixverse create video --prompt "A sunset over ocean waves" --jsonFür eine vollständig angepasste Generierung:
pixverse create video \
--prompt "A cinematic drone shot over a misty mountain valley at dawn" \
--model v5.6 \
--quality 1080p \
--aspect-ratio 16:9 \
--duration 8 \
--audio \
--jsonDas Flag --audio aktiviert KI-generierten Umgebungssound, der zu Ihrem Videoinhalt passt. Das Flag --json gibt bei Fertigstellung eine video_url zurück, die Sie direkt an einen Download-Befehl oder den nächsten Schritt in einer Pipeline übergeben können.
PixVerse bietet mehrere Videomodelle mit unterschiedlichen Fähigkeiten:
| Modell | Maximale Qualität | Dauerspanne | Hinweise |
|---|---|---|---|
v5.6 | 1080p | 1–10 Sek. | Am flexibelsten; breiteste Dauerspanne |
sora-2-pro | 1080p | 4, 8, 12 Sek. | Hochwertige kinematische Ausgabe |
veo-3.1-standard | 1080p | 4, 6, 8 Sek. | Unterstützt Übergangsmodus |
grok-imagine | 720p | 1–15 Sek. | Längste maximale Dauer |
Ein statisches Bild animieren
Um ein Foto oder ein generiertes Bild in ein Video umzuwandeln, verwenden Sie das Flag --image:
pixverse create video \
--prompt "Gentle wind moves through the scene" \
--image ./product-photo.jpg \
--model v5.6 \
--quality 1080p \
--jsonSie können einen lokalen Dateipfad oder eine URL angeben. Lokale Dateien werden automatisch hochgeladen — kein manueller Upload-Schritt erforderlich.
Schritt 5: Den interaktiven Assistenten ausführen
Wenn Sie zum ersten Mal erkunden und noch nicht mit allen verfügbaren Flags vertraut sind, führen Sie einen Erstellungsbefehl ohne Argumente aus, um den geführten Assistenten zu starten:
pixverse create video
pixverse create imageDer Assistent führt Sie Schritt für Schritt durch Prompt, Modellauswahl, Qualität, Seitenverhältnis, Dauer und andere Optionen — nützlich, um herauszufinden, welche Parameter verfügbar sind, bevor Sie sie in Skripte einbauen.
Ihren KI-Agenten das Generieren von Medien beibringen
Hier wird die PixVerse CLI wirklich transformativ. Da jeder Befehl strukturiertes JSON zurückgibt und deterministische Exit-Codes verwendet, kann jeder KI-Agent, der Shell-Befehle ausführen kann, dazu gebracht werden, auf Anfrage Bilder und Videos zu generieren.
PixVerse Skills installieren
PixVerse Skills ist eine Bibliothek strukturierter Skill-Dateien, die Agenten genau beibringt, wie die CLI zu verwenden ist: welche Flags jeder Befehl akzeptiert, welche Modelle welche Parameter unterstützen, wie Befehle zu Pipelines verkettet werden und wie Fehler behandelt werden.
Für Claude Code und andere Agenten, die das Skills-Format unterstützen, fügen Sie die PixVerse Skills direkt hinzu:
npx skills add https://github.com/pixverseai/skills --skill pixverse-ai-image-and-video-generatorFür Cursor befinden sich die Skills im Verzeichnis skills/ des PixVerse Skills GitHub-Repositorys und können als Kontext direkt in Ihren Editor geladen werden. Für Codex und LangChain-basierte Agenten ist jede Skill-Datei eine eigenständige Markdown-Datei, die in den System-Prompt des Agenten eingefügt werden kann.
Sobald Ihr Agent die PixVerse Skills geladen hat, können Sie ihm Anweisungen in natürlicher Sprache geben, wie:
- „Generiere ein 10-Sekunden-Produktdemo-Video aus diesem Screenshot”
- „Erstelle vier Variationen dieses Blog-Cover-Bilds im Format 16:9”
- „Animiere dieses Diagramm zu einem 5-Sekunden-Erklärungsclip mit Umgebungsklang”
Der Agent wird diese Anweisungen in die richtigen CLI-Befehle übersetzen, die JSON-Ausgabe parsen und Polling sowie Downloads verwalten — ohne manuellen Eingriff.
Claude Code
In Claude Code wird die PixVerse CLI zu einem nativen Werkzeug, das der Agent autonom verwendet. Nach dem Laden der PixVerse Skills können Sie die Mediengenerierung direkt in jede Aufgabe einbeziehen:
Generiere ein Cover-Bild für diesen Blog-Beitrag über maschinelles Lernen,
verwende das Modell seedream-5.0-lite bei 1800p im Format 16:9,
lade es nach ./assets/cover.webp herunter
Claude Code wird die richtigen CLI-Befehle aufrufen, die Bild-URL aus der JSON-Antwort parsen und die Datei in den angegebenen Pfad herunterladen — alles in derselben Sitzung, in der es auch Ihren Code schreibt.
Ein typischer Claude Code-Workflow:
# Claude Code führt dies autonom basierend auf Ihrer Anweisung aus
IMG=$(pixverse create image \
--prompt "Abstract visualization of neural network layers, dark background, blue and purple tones" \
--model seedream-5.0-lite \
--quality 1800p \
--aspect-ratio 16:9 \
--json | jq -r '.image_url')
# Dann animieren
pixverse create video \
--prompt "Slow pan across glowing neural connections" \
--image "$IMG" \
--model v5.6 \
--quality 1080p \
--duration 6 \
--jsonCursor
Cursor-Benutzer können PixVerse Skills als Projektkontextdatei laden. Platzieren Sie die relevanten Skill-Dateien in Ihrem Verzeichnis .cursor/ oder fügen Sie sie Ihren Workspace-Regeln hinzu. Nach dem Laden hat Cursor vollständige Kenntnis aller PixVerse CLI-Befehle und kann Medien als Teil jeder Codieraufgabe generieren.
Ein typischer Cursor-Workflow: Bitten Sie den Agenten, ein Mockup-Bild basierend auf einem Design zu generieren, das Sie erstellen, und verwenden Sie es dann direkt als Referenz in Ihrer IDE-Sitzung — ohne den Editor jemals zu verlassen.
Codex und andere Agenten
Die PixVerse CLI ist mit jedem Agenten kompatibel, der Shell-Befehle ausführen und JSON parsen kann. Das strukturierte Ausgabeformat — konsistente Feldnamen, vorhersagbare Fehlercodes und per stderr getrennte Fehlermeldungen — stellt sicher, dass selbst einfache Skript-Agenten die Generierung zuverlässig integrieren können.
Der Exit-Code-Vertrag macht die Fehlerbehandlung unkompliziert:
| Code | Bedeutung | Agentenaktion |
|---|---|---|
| 0 | Erfolg | JSON-Ausgabe parsen |
| 2 | Zeitüberschreitung | Mit längerem --timeout erneut versuchen |
| 3 | Authentifizierung abgelaufen | pixverse auth login erneut ausführen |
| 4 | Keine Kredite mehr | Guthaben prüfen, Benutzer benachrichtigen |
| 5 | Generierung fehlgeschlagen | Andere Parameter ausprobieren |
| 6 | Validierungsfehler | Flag-Werte überprüfen |
Automatisierungs-Pipelines
Sobald Sie die einzelnen Befehle verstehen, ermöglicht die PixVerse CLI leistungsstarke mehrstufige Workflows, die vollständig ohne Benutzerinteraktion ablaufen.
Text zu Bild zu Video
Eine der nützlichsten Pipelines: ein hochauflösendes Bild aus einem Text-Prompt generieren und es dann in ein Video animieren.
# Schritt 1: Ein Basisbild generieren
IMG_RESULT=$(pixverse create image \
--prompt "A cyberpunk cityscape at night, neon lights reflecting on wet pavement" \
--model gemini-3.1-flash \
--quality 2160p \
--aspect-ratio 16:9 \
--json)
IMAGE_URL=$(echo "$IMG_RESULT" | jq -r '.image_url')
# Schritt 2: In ein Video animieren
VID_RESULT=$(pixverse create video \
--prompt "Camera slowly pans across the neon-lit streets" \
--image "$IMAGE_URL" \
--model v5.6 \
--quality 1080p \
--duration 8 \
--json)
VIDEO_ID=$(echo "$VID_RESULT" | jq -r '.video_id')
# Schritt 3: Das fertige Video herunterladen
pixverse asset download "$VIDEO_ID" --jsonVollständige Videoproduktions-Pipeline
Für polierte Ausgabe verketten Sie Erstellung mit Nachbearbeitungsschritten:
# Schritt 1: Das Basisvideo erstellen
RESULT=$(pixverse create video \
--prompt "A product being assembled in slow motion" \
--model v5.6 \
--quality 720p \
--duration 5 \
--json)
VID=$(echo "$RESULT" | jq -r '.video_id')
# Schritt 2: Dauer verlängern
EXTENDED=$(pixverse create extend \
--video "$VID" \
--prompt "Continue the assembly sequence" \
--duration 5 \
--json | jq -r '.video_id')
pixverse task wait "$EXTENDED" --json
# Schritt 3: Umgebungsklang hinzufügen
WITH_SOUND=$(pixverse create sound \
--video "$EXTENDED" \
--prompt "Industrial workshop ambience, soft mechanical sounds" \
--json | jq -r '.video_id')
pixverse task wait "$WITH_SOUND" --json
# Schritt 4: Auf 1080p hochskalieren
FINAL=$(pixverse create upscale \
--video "$WITH_SOUND" \
--quality 1080p \
--json | jq -r '.video_id')
pixverse task wait "$FINAL" --json
# Schritt 5: Herunterladen
pixverse asset download "$FINAL" --jsonBatch-Generierung
Für Content-Pipelines, die mehrere Variationen erfordern, führen Sie Jobs parallel aus:
# Zuerst Kredite prüfen
CREDITS=$(pixverse account info --json | jq -r '.credits.total')
echo "Available credits: $CREDITS"
# Vier parallele Generierungen einreichen
pixverse create video --prompt "Sunrise over mountains" --no-wait --json > /tmp/v1.json &
pixverse create video --prompt "Sunset over ocean" --no-wait --json > /tmp/v2.json &
pixverse create video --prompt "Stars over a desert" --no-wait --json > /tmp/v3.json &
pixverse create video --prompt "Aurora over a frozen lake" --no-wait --json > /tmp/v4.json &
wait
# Auf jedes warten und herunterladen
for f in /tmp/v1.json /tmp/v2.json /tmp/v3.json /tmp/v4.json; do
ID=$(jq -r '.video_id' "$f")
pixverse task wait "$ID" --json
pixverse asset download "$ID" --json
doneDas Flag --no-wait reicht den Job ein und gibt sofort eine Task-ID zurück, sodass Sie mehrere Jobs einreichen können, bevor Sie abfragen. Der Befehl pixverse task wait übernimmt das adaptive Polling für Sie — keine manuellen Sleep-Schleifen erforderlich.
Standardwerte konfigurieren
Wenn Sie konsistent dasselbe Modell, dieselbe Qualität oder dasselbe Seitenverhältnis verwenden, legen Sie diese als Standardwerte fest, damit Sie die Flags nicht jedes Mal wiederholen müssen:
pixverse config defaults set --mode video --model v5.6 --quality 1080p --aspect-ratio 16:9
pixverse config defaults set --mode image --model seedream-5.0-lite --quality 1800p
pixverse config set output-dir ~/Downloads/pixverseBefehlszeilenflags überschreiben immer Ihre konfigurierten Standardwerte, sodass Sie volle Flexibilität behalten und gleichzeitig Wiederholungen reduzieren.
Was Sie erstellen können
Mit der in Ihren Agenten-Workflow integrierten PixVerse CLI erweitert sich der Bereich der automatisierbaren Aufgaben erheblich:
- Dokumentation — automatisch Produktdemo-Videos und Screenshots als Teil Ihres Dokumentations-Build-Prozesses generieren
- Marketing — nächtliche Batch-Jobs ausführen, die Social-Media-Inhaltsvariationen aus einer einzigen Prompt-Bibliothek erstellen
- App-Entwicklung — Ihren Coding-Agenten Platzhaltervisuals, Mockup-Animationen oder Ladebildschirm-Videos generieren lassen, während Sie die Benutzeroberfläche aufbauen
- Content-Pipelines — CLI-Aufrufe mit anderen Tools (ffmpeg, ImageMagick, Cloud-Speicher) verketten, um vollständig automatisierte Medienprodukions-Workflows aufzubauen
- Prototyping — schnell Bewegungskonzepte in Sekunden generieren, um Ideen zu validieren, bevor Sie sich auf eine vollständige Produktion festlegen
Die CLI ist so konzipiert, dass sie sich natürlich in jeden shellbasierten Workflow einfügt. Wenn Ihre bestehende Automatisierung in bash, Python, Node oder einer CI/CD-Pipeline läuft, fügt sich die PixVerse CLI ohne zusätzlichen Integrationsaufwand ein.
Checkliste für den Einstieg
- Node.js 20 oder höher installieren
-
npm install -g pixverseausführen -
pixverse auth loginausführen und im Browser autorisieren -
pixverse account infoausführen, um Kredite zu überprüfen - Erstes Bild generieren:
pixverse create image --prompt "..." --json - Erstes Video generieren:
pixverse create video --prompt "..." --json - PixVerse Skills für Ihren Agenten installieren (Claude Code, Cursor oder Codex)
- Bevorzugte Standardwerte mit
pixverse config defaults seteinrichten - Erste Automatisierungs-Pipeline aufbauen
Nächste Schritte
Die PixVerse CLI auf npm (npm install -g pixverse) gibt Ihnen sofortigen Zugang zu allen Generierungsfähigkeiten. Das PixVerse Skills-Repository stellt die strukturierten Skill-Dateien bereit, die Ihrem KI-Agenten beibringen, wie er diese Fähigkeiten in jedem Kontext korrekt einsetzt.
Die Kombination aus einer zuverlässigen CLI und einer agentengerechten Skill-Bibliothek bedeutet, dass Bild- und Videogenerierung nun im selben Workflow wie Ihr Code leben kann — verwaltet vom selben Agenten, im selben Terminal, ohne Werkzeuge zu wechseln.
Beginnen Sie mit einem einzigen Befehl. Bauen Sie von dort aus auf.