Deployment von
Bild-KI-Modellen

Von der lokalen ComfyUI-Installation zur skalierbaren Cloud-Lösung

Datum  12. Februar 2026
Zeit  9:00 – 13:00 Uhr
Trainer  Holger Will
Format  Hands-on, interaktiv

Agenda

09:0030 min

Check-in & Grundlagen

  • Vorstellungsrunde: Kenntnisstand, Motivation, Use Cases
  • Rückblick Session 6: Vom LoRA-Training zum Deployment
  • Definition: Was bedeutet „Deployment“ eigentlich?
09:3030 min

Die Deployment-Landschaft

  • Überblick: 11 Lösungen in 5 Kategorien
  • Grundbegriffe: API, JSON, Server/Serverless, Docker & Co.
  • Das Spektrum: „Zero Setup“ bis „Full Control“
  • Live-Einblick: flaic.de Architektur
10:0015 min

Pause

  • Gedanken sammeln, Fragen notieren
10:1545 min

Fokus-Entscheidung & Vorbereitung

  • Gemeinsame Entscheidung: Welcher Ansatz passt zu unseren Use Cases?
  • Erwartungsmanagement: Was schaffen wir heute, was nicht?
  • Requirements & Spezifikation erarbeiten
  • ComfyUI-Workflow auswählen/anpassen
11:0010 min

Pause

  • Accounts anlegen, Zugänge prüfen
11:1045 min

Praxis I – Setup & erster Prototyp

  • Claude Cowork Session aufsetzen
  • Prompt-Template laden & anpassen
  • Deployment-Grundgerüst erstellen (Frontend + API-Anbindung)
11:5510 min

Pause

  • Durchatmen, Zwischenstand besprechen
12:0540 min

Praxis II – Iteration & Feinschliff

  • Testen, Fehler beheben, iterieren
  • Features ergänzen (Galerie, Loading-States, Error-Handling)
  • Ergebnisse präsentieren
12:4515 min

Abschluss & Feedback

  • Recap: Was haben wir heute geschafft?
  • Key Takeaways & nächste Schritte
  • Offene Fragen & Feedback-Runde

Was bedeutet „Deployment“?

Deployment bedeutet: Einen Workflow, eine Anwendung oder ein Modell so bereitzustellen, dass es von anderen genutzt werden kann – sei es von Kolleg:innen im LAN, von Kund:innen über eine Web-Oberfläche oder von anderen Systemen über eine API.

Im Kontext von ComfyUI heißt das: Wie bringe ich meinen lokal gebauten Workflow so ins Netzwerk/in die Cloud, dass andere davon profitieren – ohne ComfyUI selbst bedienen zu müssen?

Wusstet ihr? Viele bekannte generative KI-Dienste für Endnutzer – wie etwa Bildgeneratoren in Social-Media-Apps oder Marketing-Tools – nutzen im Hintergrund tatsächlich ComfyUI als Workflow-Engine. ComfyUI ist nicht nur ein Tool zum Experimentieren, sondern auch eine bewährte Basis für Produktions-Systeme.

Typischer Deployment-Aufbau

Nutzer:in
Web-UI / App
Frontend
Interface
Backend / API
Server
ComfyUI
Workflow
GPU / Modell
Inference

Je nach Deployment-Lösung werden unterschiedlich viele dieser Schichten für dich übernommen.

Die Deployment-Landschaft

11 Lösungen – von Plug & Play bis Full Control. Filter nach Kategorie:

Das Spektrum: Einfachheit ↔ Kontrolle

Je weiter rechts, desto mehr technische Kontrolle – aber auch mehr Eigenverantwortung.

RunComfy
ThinkDiff.
ComfyICU
ViewComfy
Comfy-
Deploy
fal.ai
Replicate
RunPod
Vast.ai
Modal
Einfach · Zero Setup Full Control · Code
Lokal / LAN

ComfyUI im Netzwerk

Die einfachste Option: ComfyUI lokal starten und über die IP-Adresse im lokalen Netzwerk für andere freigeben. Keine Cloud nötig.
KostenlosEigene HardwarePrivat
Best für: Schnelles Teilen mit Kolleg:innen im selben Netzwerk
Managed Cloud

RunComfy

Spezialisierter Managed Service – keine Installation nötig. Fertige Umgebung mit vorinstallierten Modellen und Nodes. Zusätzliche API-Option.
Zero SetupAbo / CreditsAPI verfügbar
Best für: Einsteiger und Kreative, die sofort loslegen wollen
Managed Cloud

ComfyICU

„True Serverless“-Modell: Man zahlt nur für die reine Rechenzeit während der Generierung. Stark auf Batch-Verarbeitung und Warteschlangen ausgelegt.
Pay-per-GenerationServerlessBatch
Best für: Sporadische Nutzung und kosteneffizientes Rendering
Managed Cloud

ThinkDiffusion

Vollständig verwaltete Arbeitsumgebung im Browser. Fühlt sich an wie ein virtueller Desktop, speziell für Stable Diffusion und ComfyUI optimiert.
Browser-VMPersistentStundenbasiert
Best für: Kreativprofis, die eine Cloud-Workstation suchen
App / API Builder

ComfyDeploy

Schließt die Lücke zwischen Workflow-Bau und App-Deployment. Verwandelt lokale ComfyUI-Workflows in APIs oder Web-Oberflächen.
Workflow → APICredits / AboTeams
Best für: Prototypen und eigene KI-Tools erstellen
App / API Builder

ViewComfy

Fokus auf „No-Code“-Apps aus ComfyUI-Workflows. Team-Features und Agentur-Funktionen: Verwandelt komplexe Nodes in einfache Web-Formulare.
No-CodeSaaS / AboAgentur-Features
Best für: Agenturen, die Workflows als Produkte an Kunden liefern
App / API Builder

fal.ai

Serverlose API-Architektur. Workflows werden als JSON an fal.ai gesendet und auf H100 GPUs ausgeführt. Connector-Plugin für ComfyUI. 600+ Modelle.
API-firstPay-per-OutputH100 GPUs99.99% SLA
Best für: Schnelle Prototypen & Production Deployments mit minimalem Ops
App / API Builder

Replicate

Plattform für Entwickler: ComfyUI-Workflows als Container deployen und per API nutzen. Keine grafische Oberfläche – rein API-basiert.
Container-DeployPay-per-SecondAPI only
Best für: Softwareentwickler, die KI in Apps integrieren
GPU Cloud

RunPod

Eine der beliebtesten Optionen: Docker-Container („Pods“) mit leistungsstarken GPUs. One-Click-Templates für ComfyUI. Volle Root-Kontrolle.
Docker PodsPay-per-HourFull ControlServerless-Option
Best für: Tech-Savvy User, die volle Kontrolle wollen
GPU Cloud

Vast.ai

GPU-Marktplatz (Peer-to-Peer): Rechenzentren und Privatpersonen vermieten GPUs. Oft die günstigste Option, Zuverlässigkeit variiert.
P2P MarktplatzPay-per-HourDocker Templates
Best für: Preisbewusste Nutzer mit Linux/Docker-Kenntnissen
GPU Cloud

Massed Compute

Virtual-Desktop-Lösung: VM mieten, per Remote Desktop zugreifen. Erlebnis kommt einem leistungsstarken lokalen PC sehr nahe.
Remote DesktopPay-per-HourOne-Click Install
Best für: Power-User, die Desktop-Erfahrung in der Cloud brauchen
Dev Infrastruktur

Modal

High-End-Plattform für Python-Entwickler. ComfyUI-Backends hochgradig skalierbar deployen. Config-as-Code, schnelle Kaltstartzeiten.
PythonPay-per-UseAuto-Scaling
Best für: Senior Devs, die Produktions-Apps skalieren müssen

Vergleichstabelle

Plattform Kategorie Preismodell Setup Kontrolle GUI?
ComfyUI lokalLokal/LANKostenlosMittel█████Ja
RunComfyManagedAbo / CreditsKeins█◻◻◻◻Ja
ComfyICUManagedPay-per-GenKeins██◻◻◻Ja
ThinkDiffusionManagedStundenbasiertKeins██◻◻◻Ja
ComfyDeployApp BuilderCredits / AboGering███◻◻Ja
ViewComfyApp BuilderSaaS / AboGering██◻◻◻Ja
fal.aiApp/APIPay-per-OutputGering███◻◻API
ReplicateApp/APIPay-per-SecondMittel███◻◻API
RunPodGPU CloudPay-per-HourMittel████◻Ja
Vast.aiGPU CloudPay-per-HourHoch█████Nein
Massed ComputeGPU CloudPay-per-HourGering████◻Desktop
ModalDev InfraPay-per-UseHoch█████Nein

Glossar – Die wichtigsten Begriffe

Klickt auf einen Begriff, um die Erklärung zu sehen.

API
Application Programming Interface – Eine Schnittstelle, über die Programme miteinander kommunizieren. Statt eine Website zu besuchen, schickt man eine Anfrage (Request) an einen Server und bekommt eine Antwort (Response) zurück.
Beispiel: Du schickst ein JSON mit Prompt und Parametern an die fal.ai API und bekommst ein generiertes Bild zurück.
JSON
JavaScript Object Notation – Ein standardisiertes Textformat zum Austausch von Daten. Leicht lesbar für Menschen und Maschinen. Besteht aus Schlüssel-Wert-Paaren.
Beispiel: {"prompt": "Ein Hund im Weltraum", "width": 1024}
Server
Ein Computer (oder Programm), der rund um die Uhr läuft und auf Anfragen wartet. „Traditionelle“ Server laufen dauerhaft und kosten auch dann Geld, wenn sie nichts tun.
Beispiel: Ein RunPod-Pod ist ein gemieteter Server mit GPU, der nach Stunden abgerechnet wird.
Serverless
Kein eigener Server nötig – die Infrastruktur wird automatisch bereitgestellt, wenn eine Anfrage kommt. Man zahlt nur für die tatsächliche Nutzung. „Serverless“ heißt nicht „ohne Server“, sondern „du kümmerst dich nicht um den Server“.
Beispiel: fal.ai oder ComfyICU starten eine GPU nur, wenn ein Job reinkommt.
Docker / Container
Eine Technologie zum Verpacken von Software inklusive aller Abhängigkeiten in einen „Container“. Läuft überall gleich – auf deinem Laptop genauso wie in der Cloud.
Beispiel: Ein RunPod-Pod ist ein Docker-Container mit ComfyUI, allen Modellen und Python-Paketen.
GPU
Graphics Processing Unit – Grafikchip, der besonders gut für parallele Berechnungen ist. KI-Modelle brauchen GPUs für Training und Bildgenerierung (Inference). Mehr VRAM = größere Modelle möglich.
Beispiel: NVIDIA A100 (80GB), H100 (80GB), RTX 4090 (24GB)
Inference
Der Prozess, bei dem ein bereits trainiertes KI-Modell eine Ausgabe erzeugt (z.B. ein Bild generiert). Im Gegensatz zum Training wird hier nichts gelernt – das Modell wendet nur an, was es gelernt hat.
Beispiel: Wenn du einen Prompt eingibst und ein Bild bekommst – das ist Inference.
Frontend / Backend
Frontend: Was der Nutzer sieht (Web-Oberfläche, App, Formular).
Backend: Was im Hintergrund passiert (Server, Datenbank, Logik, API).
Beispiel: ViewComfy erstellt ein Frontend (Web-Formular) für dein ComfyUI-Backend (den Workflow).
Workflow (ComfyUI)
Eine visuelle Verarbeitungskette aus verbundenen Nodes in ComfyUI. Definiert den gesamten Prozess von Input (Prompt, Bilder) über Verarbeitung (Modell, LoRA) bis Output (generiertes Bild/Video). Kann als JSON exportiert werden.
Beispiel: Load Image → Apply LoRA → KSampler → Save Image
Cold Start
Die Verzögerung bei Serverless-Diensten, wenn eine GPU/ein Container erst hochgefahren werden muss, bevor die erste Anfrage verarbeitet wird. Kann 10–60 Sekunden dauern.
Beispiel: Bei Modal oder fal.ai kann der erste Request nach einer Pause etwas länger dauern.
Requirements Engineering
Der systematische Prozess, Anforderungen an ein System zu ermitteln, zu dokumentieren und zu verwalten. Bevor man baut, muss man wissen: Was genau soll das System können?
Beispiel: „Nutzer soll per Drag & Drop ein Bild hochladen und einen Style wählen können. Ergebnis in < 30 Sek.“
SDD
Software Design Document – Ein Dokument, das die technische Architektur und Design-Entscheidungen beschreibt. Enthält: Komponenten, Datenfluss, Technologie-Stack, Schnittstellen.
Beispiel: „Frontend: React. Backend: Python/FastAPI. GPU: RunPod Serverless. Storage: S3.“

Welcher Ansatz passt zu euch?

Klickt auf euren Use Case – Mehrfachauswahl möglich.

„Ich will meinen Workflow
schnell in der Cloud nutzen“

Ohne großes Setup – einfach hochladen und loslegen.

→ RunComfy oder ThinkDiffusion
Managed Cloud · Zero Setup
👥

„Kolleg:innen / Kund:innen
sollen meinen Workflow nutzen“

Einfache Web-Oberfläche, ohne dass die anderen ComfyUI kennen müssen.

→ ComfyDeploy oder ViewComfy
App Builder · No-Code Frontends
💻

„Ich will eine eigene App
mit KI-Bildgenerierung bauen“

API-Integration in bestehende Software, skalierbar.

→ fal.ai oder Replicate
API-first · Serverless
🔧

„Ich will volle Kontrolle
über meine Umgebung“

Eigene Modelle, eigene Config, eigenes Setup – wie ein lokaler PC in der Cloud.

→ RunPod (empfohlen) oder Vast.ai
GPU Cloud · Docker · Full Control
📦

„Ich will viele Bilder
auf einmal generieren“

Batch-Verarbeitung, Warteschlangen, automatisiert.

→ ComfyICU oder RunPod Serverless
Pay-per-Generation · Queue-basiert
🏠

„Alles soll lokal bleiben
– keine Cloud“

Datenschutz, Unabhängigkeit, eigene Hardware nutzen.

→ ComfyUI im LAN freigeben
Kostenlos · Privat · Eigene GPU nötig

Architektur-Patterns

Pattern A: Managed Cloud (z.B. RunComfy)

Du
Browser
Alles inkl.
RunComfy
Output
Bilder

Einfachster Weg. Alles ist bereits eingerichtet. Du arbeitest direkt in der Browser-UI.

Pattern B: App/API Builder (z.B. fal.ai, ComfyDeploy)

Endnutzer
Deine App
Dein Code
Backend
Managed
API
Serverless
GPU

Du baust das Frontend, der Anbieter übernimmt GPU-Management und Skalierung.

Pattern C: GPU Cloud (z.B. RunPod)

Endnutzer
Web/App
Dein
Frontend
Dein
Backend
Dein Pod
Docker + ComfyUI

Du kontrollierst alles. Mehr Aufwand, aber maximale Flexibilität.

Praxis-Vorbereitung

Bevor wir loslegen: Gemeinsam die Grundlagen für den Praxisteil erarbeiten.

Requirements definieren

Was genau soll unser Deployment können? Gemeinsam erarbeiten wir die Anforderungen.

  • Wer sind die Ziel-Nutzer?
  • Was sollen sie tun können? (Funktionale Anforderungen)
  • Budget-Rahmen definiert?
  • Verfügbare Hardware/GPU geklärt?
  • Technische Einschränkungen identifiziert?

ComfyUI-Workflow auswählen

Welchen Workflow deployen wir? Optionen je nach Erfahrung und Use Case.

  • Workflow aus Session 6 (mit LoRA) verwenden?
  • Oder: Neuen Workflow basierend auf Use Cases?
  • Workflow lokal getestet & lauffähig?
  • Workflow als JSON exportiert?
  • Variable Inputs identifiziert (was steuert der Nutzer?)

Spezifikation erstellen (Mini-SDD)

Kurze technische Spezifikation – was brauchen wir wo?

  • Frontend: Was sieht der Nutzer? (Eingabefelder, Buttons, Galerie)
  • Backend: Welcher Service/Plattform?
  • Workflow: Welche Nodes, welche Parameter?
  • Storage: Wo liegen Ergebnisse?
  • Auth: Wer darf zugreifen?

Claude Cowork Session starten

Gemeinsam eine Claude-Session aufsetzen – Vibe Coding als Methode.

  • Claude Cowork geöffnet?
  • Prompt-Template geladen & angepasst?
  • Kontext (Requirements, Workflow-JSON) bereitgestellt?
  • API-Endpunkt / Zugansdaten bereit?

Deploy & Testen!

Learning by Doing: Deployment durchführen, testen, iterieren.

  • Erster Prototyp erstellt?
  • API-Verbindung funktioniert?
  • Erstes Bild erfolgreich generiert?
  • Fehlerbehandlung getestet?
  • Nächste Schritte / Hausaufgabe definiert?

Vibe Coding mit Claude Cowork

Im Praxisteil nutzen wir Claude Cowork als AI-Pair-Programmer. Gemeinsam bauen wir einen Prototypen: Ein eigenes Web-UI, das die ComfyUI API ansteuert – euer persönlicher Bildgenerator für Kolleg:innen und Kund:innen.

Ihr beschreibt
Was soll es können?
Claude baut
Frontend + API-Code
Gemeinsam
Testen & Iterieren
Ergebnis
Funktionierender Prototyp

Prompt-Templates sind vorbereitet – ihr passt sie an euren Use Case an.

Erwartungsmanagement: Im Praxisteil werden wir nicht alles perfekt deployen – und das ist okay! Das Ziel ist, den gesamten Prozess einmal durchzugehen, die Konzepte zu verstehen und eine funktionierende Basis zu schaffen, auf der ihr selbstständig weiterarbeiten könnt.
Visual AI Engineer Bootcamp · Session 7 · 12. Februar 2026
KI Marketing Bootcamp · Holger Will
Aktueller Block
Check-in & Grundlagen
30:00 verbleibend
Danach: Die Deployment-Landschaft