Zum Inhalt springen
>_<
AI EngineeringWiki

Was ist Agent Orchestration?

Grundlagen · 5 min

📋 Auf einen Blick

Agent Orchestration koordiniert mehrere spezialisierte AI-Agenten. Ein Manager-Agent delegiert Aufgaben an Worker. Kommunikation läuft über einen Nachrichtenbus (z.B. Team-Chat). Vorteile: Parallelisierung, Spezialisierung, Auditierbarkeit — alles lokal und DSGVO-konform.

Agent Orchestration koordiniert mehrere AI-Agenten, die gemeinsam komplexe Aufgaben abarbeiten. Du hast nicht nur einen Chat, sondern ein Team aus spezialisierten Agenten mit klaren Rollen.

Agent Orchestration Diagram — Manager delegiert an spezialisierte Worker-Agenten
Agent Orchestration: Wie ein Manager-Agent Aufgaben an spezialisierte Worker verteilt

Das Problem mit einem einzelnen LLM

Ein einzelnes Large Language Model (LLM) wie ChatGPT kann viele Aufgaben erledigen, aber es hat klare Grenzen:

  • Kein dauerhaftes Gedächtnis zwischen Sitzungen
  • Kann keine Codeänderungen selbst ausführen
  • Hat keinen Zugriff auf deine Infrastruktur
  • Arbeitet isoliert — kein Teamwork möglich

Die Lösung: Multi-Agent System

Bei Agent Orchestration erstellst du mehrere spezialisierte Agenten, die jeweils eine spezifische Rolle haben:

Beispiel: Agent-Team

AgentRolle
Manager-AgentManager — Priorisierung, Freigaben
Developer-AgentFrontend/App/CI — Next.js, Tests
Infrastructure-AgentBackend/Infra — n8n, Docker, Monitoring
QA-AgentQA/Content — Testing, Research

Kommunikation

Die Agenten kommunizieren über einen zentralen Bus. Bei uns ist der Team-Chat. Jeder Agent hat eigene Polling-Skripte, die auf für ihn relevante Nachrichten reagieren.

Kommunikationsfluss

1. Joe postet Task in #echo_log
    ↓
2. Manager-Agent (Manager) priorisiert und delegiert
    ↓
3. Developer-Agent → Code schreiben
   Infrastructure-Agent → Infrastruktur vorbereiten
   QA-Agent → Content prüfen
    ↓
4. Alle posten Ergebnisse zurück
    ↓
5. Manager-Agent aggregiert und meldet Fertig

Vorteile

  • Parallelisierung: Mehrere Agenten gleichzeitig arbeiten lassen
  • Spezialisierung: Jeder Agent ist Experte für seinen Bereich
  • Skalierbarkeit: Neuen Agent hinzufügen ist einfach
  • Auditierbarkeit: Jede Aktion wird im Team-Chat geloggt
  • DSGVO: Alles bleibt lokal — kein Training auf deinen Prompts

Technische Umsetzung

Für unser Setup nutzen wir:

  • Team-Chat — Team-Kommunikation als Nachrichtenbus
  • n8n — Workflow-Automatisierung
  • Docker Swarm — Container-Orchestrierung
  • Claude Code — CLI-Zugriff auf LLM-Fähigkeiten
  • Prometheus + Grafana — Monitoring
💡 Einstieg

Du brauchst kein komplexes Framework für den Start. Ein LLM mit Tool-Zugriff (z.B. Claude Code CLI) plus Team-Chat als Nachrichtenbus reicht für die ersten Agent-Workflows.

Nächste Schritte

Mehr über Multi-Agent Systeme? Weiter zu: Multi-Agent Systeme erklärt →

Quellen

War dieser Artikel hilfreich?

Nächster Schritt: vom Wissen in die Umsetzung

Wenn du mehr willst als Theorie: Setups, Workflows und Vorlagen aus dem echten Betrieb für Teams, die lokale und dokumentierte AI-Systeme wollen.

Warum AI Engineering
  • Lokal und self-hosted gedacht
  • Dokumentiert und auditierbar
  • Aus eigener Runtime entwickelt
  • Made in Austria
Kein Ersatz für Rechtsberatung.