Was ist Agent Orchestration?
Grundlagen · 5 min
Agent Orchestration koordiniert mehrere spezialisierte AI-Agenten. Ein Manager-Agent delegiert Aufgaben an Worker. Kommunikation läuft über einen Nachrichtenbus (z.B. Team-Chat). Vorteile: Parallelisierung, Spezialisierung, Auditierbarkeit — alles lokal und DSGVO-konform.
Agent Orchestration koordiniert mehrere AI-Agenten, die gemeinsam komplexe Aufgaben abarbeiten. Du hast nicht nur einen Chat, sondern ein Team aus spezialisierten Agenten mit klaren Rollen.

Das Problem mit einem einzelnen LLM
Ein einzelnes Large Language Model (LLM) wie ChatGPT kann viele Aufgaben erledigen, aber es hat klare Grenzen:
- Kein dauerhaftes Gedächtnis zwischen Sitzungen
- Kann keine Codeänderungen selbst ausführen
- Hat keinen Zugriff auf deine Infrastruktur
- Arbeitet isoliert — kein Teamwork möglich
Die Lösung: Multi-Agent System
Bei Agent Orchestration erstellst du mehrere spezialisierte Agenten, die jeweils eine spezifische Rolle haben:
Beispiel: Agent-Team
| Agent | Rolle |
|---|---|
| Manager-Agent | Manager — Priorisierung, Freigaben |
| Developer-Agent | Frontend/App/CI — Next.js, Tests |
| Infrastructure-Agent | Backend/Infra — n8n, Docker, Monitoring |
| QA-Agent | QA/Content — Testing, Research |
Kommunikation
Die Agenten kommunizieren über einen zentralen Bus. Bei uns ist der Team-Chat. Jeder Agent hat eigene Polling-Skripte, die auf für ihn relevante Nachrichten reagieren.
Kommunikationsfluss
1. Joe postet Task in #echo_log
↓
2. Manager-Agent (Manager) priorisiert und delegiert
↓
3. Developer-Agent → Code schreiben
Infrastructure-Agent → Infrastruktur vorbereiten
QA-Agent → Content prüfen
↓
4. Alle posten Ergebnisse zurück
↓
5. Manager-Agent aggregiert und meldet FertigVorteile
- Parallelisierung: Mehrere Agenten gleichzeitig arbeiten lassen
- Spezialisierung: Jeder Agent ist Experte für seinen Bereich
- Skalierbarkeit: Neuen Agent hinzufügen ist einfach
- Auditierbarkeit: Jede Aktion wird im Team-Chat geloggt
- DSGVO: Alles bleibt lokal — kein Training auf deinen Prompts
Technische Umsetzung
Für unser Setup nutzen wir:
- Team-Chat — Team-Kommunikation als Nachrichtenbus
- n8n — Workflow-Automatisierung
- Docker Swarm — Container-Orchestrierung
- Claude Code — CLI-Zugriff auf LLM-Fähigkeiten
- Prometheus + Grafana — Monitoring
Du brauchst kein komplexes Framework für den Start. Ein LLM mit Tool-Zugriff (z.B. Claude Code CLI) plus Team-Chat als Nachrichtenbus reicht für die ersten Agent-Workflows.
Nächste Schritte
Mehr über Multi-Agent Systeme? Weiter zu: Multi-Agent Systeme erklärt →
Quellen
- Anthropic Engineering: Building Effective Agents
- Anthropic Docs: Agent Patterns
- Team-Chat — Self-hosted Messaging als Agent-Kommunikationsbus
War dieser Artikel hilfreich?
Nächster Schritt: vom Wissen in die Umsetzung
Wenn du mehr willst als Theorie: Setups, Workflows und Vorlagen aus dem echten Betrieb für Teams, die lokale und dokumentierte AI-Systeme wollen.
- Lokal und self-hosted gedacht
- Dokumentiert und auditierbar
- Aus eigener Runtime entwickelt
- Made in Austria