Zum Inhalt springen
>_<
AI EngineeringWiki

30-Tage Local AI-Stack Quickstart

Grundlagen · 8 min

📋 Auf einen Blick

In 30 Tagen von Null zum produktiven, DSGVO-konformen AI-Stack. Phase 1: Docker + Netzwerk (Tag 1-7). Phase 2: Ollama + LLMs (Tag 8-14). Phase 3: n8n Automatisierung (Tag 15-21). Phase 4: Monitoring + Security + Backup (Tag 22-30).

Du willst einen lokalen AI-Stack aufbauen? Diese Tag-für-Tag Anleitung zeigt dir, wie du in 30 Tagen von Null zu einem produktiven, DSGVO-konformen Stack kommst.

30 Tage Quickstart Timeline — Von Null zum produktiven AI-Stack
30-Tage Timeline: Schritt für Schritt zum eigenen lokalen AI-Stack
Diagramm wird geladen...

Was du am Ende hast

  • Docker Swarm Cluster (3 Nodes)
  • Ollama mit lokalen LLMs (Llama 3, Mistral)
  • n8n Workflow-Automatisierung
  • Monitoring mit Prometheus + Grafana
  • 100% DSGVO-konform

Phase 1: Foundation (Tag 1-7)

Hardware-Empfehlungen für lokale AI — GPU, RAM, CPU
Hardware-Empfehlungen: Was du für deinen lokalen AI-Stack brauchst

Tag 1: Hardware-Check

  • Minimum: 8GB RAM, 4 CPU-Kerne
  • Empfohlen: 32GB RAM, 8+ CPU, GPU (RTX 3060+)
  • Ubuntu 22.04 LTS installieren

Tag 2: Docker Installation

curl -fsSL https://get.docker.com | sh
sudo usermod -aG docker $USER
docker --version

Tag 3: Netzwerk und Security

  • UFW Firewall aktivieren
  • SSH-Hardening (Key-Auth, Fail2Ban)
  • Backup-Lösung planen
docker ps — Laufende Container anzeigen
docker ps: Deine ersten Container laufen

Tag 4-5: Docker Compose

  • docker-compose.yml erstellen
  • Erste Services starten (Traefik)
  • Container-Management lernen

Tag 6-7: Dokumentation

  • README.md erstellen
  • Architektur-Diagramm
  • Zugangsdaten in Passwort-Manager

Phase 2: AI Core (Tag 8-14)

Tag 8-9: Ollama

curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3:8b
ollama pull mistral

Tag 10-11: Modell-Auswahl

Use-CaseModellRAM
Chat/Q&ALlama 3 8B~16GB
CodeCodeLlama~16GB
EmbeddingNomic-embed-text~4GB
Maximum QualityLlama 3 70B~140GB

Tag 12-13: Chat Interface

Open WebUI oder Alternative installieren

Tag 14: RAG (optional)

ChromaDB oder Qdrant für Dokumenten-Suche

Phase 3: Automation (Tag 15-21)

Tag 15-16: n8n Installation

services:
  n8n:
    image: n8nio/n8n:latest
    ports:
      - "5678:5678"

Tag 17-18: AI-Workflows

  • Ollama-Node in n8n konfigurieren
  • Ersten AI-Workflow erstellen
  • Test mit Produktionsdaten

Tag 19-20: Eigene Workflows

  • E-Mail-Antworten mit AI
  • Dokumenten-Zusammenfassung
  • Support-Ticket-Kategorisierung

Phase 4: Production (Tag 22-30)

Tag 22-23: Monitoring

  • Prometheus + Grafana installieren
  • Grundlegende Dashboards

Tag 24-25: Alerting

  • Prometheus Alert Rules
  • Benachrichtigungen (E-Mail, Slack)

Tag 26-27: Security Hardening

  • API-Keys in Umgebungsvariablen
  • Rate Limiting
  • Regelmäßige Updates

Tag 28-29: Backup und Recovery

  • Backup-Skript erstellen
  • Automatisierte Backups (cron)
  • Recovery-Prozedur dokumentieren

Tag 30: Review

  • Vollständige Dokumentation
  • Monitoring optimieren
  • Runbook erstellen
💡 Hardware-Budget

Ein gebrauchter Mini-Server mit 32 GB RAM und einer gebrauchten RTX 3090 (ab ca. 750 Euro) reicht für die meisten lokalen AI-Workloads. Für den Einstieg tut es auch ein Desktop-PC mit 16 GB RAM.

Quellen

Weiterfuehrende Artikel: AI Stack Setup · Ollama Tutorial · Docker Grundlagen

Fuer die Umsetzung gibt es Ressourcen auf ai-engineering.at.

War dieser Artikel hilfreich?

Nächster Schritt: vom Wissen in die Umsetzung

Wenn du mehr willst als Theorie: Setups, Workflows und Vorlagen aus dem echten Betrieb für Teams, die lokale und dokumentierte AI-Systeme wollen.

Warum AI Engineering
  • Lokal und self-hosted gedacht
  • Dokumentiert und auditierbar
  • Aus eigener Runtime entwickelt
  • Made in Austria
Kein Ersatz für Rechtsberatung.