Zum Inhalt springen
>_<
AI EngineeringWiki

Papers

ReAct: Synergizing Reasoning and Acting in Language Models

Yao et al., 2022 — Das Paper, das zeigt, wie LLMs durch abwechselndes Nachdenken und Handeln komplexe Aufgaben lösen können.

Lesezeit: 10 minZuletzt aktualisiert: März 2026
📋 Auf einen Blick

ReAct (Reasoning + Acting) ist ein Prompting-Pattern, bei dem ein LLM abwechselnd denkt (Reasoning) und handelt (Acting). Statt nur Text zu generieren, kann das Modell Tools aufrufen, Ergebnisse interpretieren und seinen Ansatz anpassen. ReAct ist die Grundlage für die meisten heutigen AI-Agent-Frameworks.

Das Problem: Denken allein reicht nicht

Chain-of-Thought (CoT) Prompting hat gezeigt, dass LLMs besser werden, wenn sie ihre Gedanken schrittweise aufschreiben. Aber reines Denken hat Grenzen: Das Modell kann keine aktuellen Informationen abrufen, keine Berechnungen durchführen und keine externen Systeme abfragen.

Umgekehrt gibt es Systeme, die LLMs Tools verwenden lassen (Acting), aber ohne explizites Nachdenken. Diese handeln oft blind — ohne Plan, ohne Fehleranalyse, ohne Strategie-Anpassung.

Die ReAct-Idee: Denken UND Handeln

ReAct kombiniert beides in einem abwechselnden Loop:

  • Thought: Das Modell denkt nach — analysiert die aktuelle Situation, plant den nächsten Schritt, interpretiert vorherige Ergebnisse.
  • Action: Das Modell führt eine konkrete Aktion aus — z.B. eine Websuche, eine Berechnung, eine API-Abfrage.
  • Observation: Das Ergebnis der Aktion wird dem Modell zurückgegeben. Es dient als Input für den nächsten Thought.

Dieser Zyklus wiederholt sich, bis die Aufgabe gelöst ist.

Diagramm wird geladen...

ReAct in Aktion: Ein Beispiel

Frage: "In welchem Jahr wurde die Hauptstadt des Landes gegründet, in dem der Transformer erfunden wurde?"

Thought 1: Ich muss herausfinden, wo der Transformer erfunden wurde. Das Paper kam von Google Brain/Google Research.
Action 1: Search["Attention Is All You Need paper authors location"]
Observation 1: Das Paper wurde von Forschern bei Google in Mountain View, USA, und der University of Toronto verfasst.
Thought 2: Die Autoren waren bei Google in den USA. Die Hauptstadt der USA ist Washington, D.C. Ich muss das Gründungsjahr finden.
Action 2: Search["Washington D.C. founding year"]
Observation 2: Washington, D.C. wurde am 16. Juli 1790 gegründet.
Thought 3: Ich habe die Antwort: 1790.
Answer: 1790

Warum ReAct besser funktioniert

  • Transparenz: Die Thought-Schritte machen den Denkprozess nachvollziehbar. Man kann sehen, warum das Modell eine bestimmte Aktion gewählt hat.
  • Fehlerkorrektur: Wenn eine Aktion ein unerwartetes Ergebnis liefert, kann das Modell seinen Ansatz anpassen. Es bleibt nicht stur bei einer falschen Strategie.
  • Grounding: Durch die Aktionen (Suche, Berechnung) basieren Antworten auf echten Daten statt auf Halluzinationen.
  • Flexibilität: Das Pattern funktioniert mit beliebigen Tools — Websuche, Datenbanken, APIs, Code-Ausführung.
Diagramm wird geladen...

ReAct in heutigen Agent-Frameworks

ReAct ist heute die Basis praktisch aller AI-Agent-Frameworks:

  • LangChain Agents: Implementieren den ReAct-Loop als Standard-Agent-Typ
  • Claude Tool Use: Anthropics Function Calling folgt dem Thought-Action-Observation-Pattern
  • AutoGPT / CrewAI: Multi-Agent-Systeme, bei denen jeder Agent intern ReAct verwendet
  • Claude Code: Verwendet ebenfalls das ReAct-Muster für Code-Analyse und -Generierung
ℹ️ Weiterführend

Für eine Übersicht über Agent-Patterns inklusive ReAct, siehe Agent Orchestration Patterns.

Quellen

  • Yao, S. et al. (2022). "ReAct: Synergizing Reasoning and Acting in Language Models." arXiv:2210.03629

War dieser Artikel hilfreich?

Nächster Schritt: vom Wissen in die Umsetzung

Wenn du mehr willst als Theorie: Setups, Workflows und Vorlagen aus dem echten Betrieb für Teams, die lokale und dokumentierte AI-Systeme wollen.

Warum AI Engineering
  • Lokal und self-hosted gedacht
  • Dokumentiert und auditierbar
  • Aus eigener Runtime entwickelt
  • Made in Austria
Kein Ersatz für Rechtsberatung.