Zum Inhalt springen
>_<
AI EngineeringWiki

Blog

Praxis-Artikel — lokaler AI-Stack, DSGVO-Compliance, Agent Orchestration und Automatisierung. Keine Theorie, nur was funktioniert.

29 ArtikelDE + EN
NEUESTER ARTIKEL2026-03-22

n8n AI Workflow Bundle v3: 14 Enterprise-Workflows für lokale Automatisierung

14 produktionsreife n8n-Workflows mit Error Handling, Dual-LLM-Fallback, DSGVO-Compliance und Monitoring. Was drin ist, warum v3 und für wen.

Themen:eu-ai-actdsgvoollamadockern8nsecurityagentslocal-first
📝
2026-03-17TuneForge

TuneForge: Spezialisierte KI-Modelle lokal benchmarken und fine-tunen

Weiterlesen →
Docker for AI: Why Containers Make Your Stack Production-Ready
2026-03-12Docker

Docker for AI: Why Containers Make Your Stack Production-Ready

Without Docker, your AI stack only runs on your machine. With Docker, it runs everywhere. The entry point for AI developers.

Weiterlesen →
Docker für AI: Warum Container deinen Stack production-ready machen
2026-03-12Docker

Docker für AI: Warum Container deinen Stack production-ready machen

Ohne Docker läuft dein AI-Stack nur auf deinem Rechner. Mit Docker läuft er überall. Der Einstieg für AI-Entwickler.

Weiterlesen →
Install Ollama in 5 Minutes — Step by Step (Windows, Mac, Linux)
2026-03-12Ollama

Install Ollama in 5 Minutes — Step by Step (Windows, Mac, Linux)

From zero to running local LLM in 5 minutes. Tested on Windows 11, macOS Sonoma and Ubuntu 24.04.

Weiterlesen →
Karpathy's autoresearch: Autonomous AI Research on Your Local GPU
2026-03-12Local AI

Karpathy's autoresearch: Autonomous AI Research on Your Local GPU

26,000 GitHub stars in 6 days — what Andrej Karpathy's new project actually does, and how to run it on an RTX 3090.

Weiterlesen →
Karpathy's autoresearch: Autonome AI-Forschung auf deiner lokalen GPU
2026-03-12Local AI

Karpathy's autoresearch: Autonome AI-Forschung auf deiner lokalen GPU

26.000 GitHub Stars in 6 Tagen — was steckt hinter Andrej Karpathys neuestem Projekt? Und wie läuft es auf einer RTX 3090?

Weiterlesen →
Ollama installieren in 5 Minuten — Schritt für Schritt (Windows, Mac, Linux)
2026-03-12Ollama

Ollama installieren in 5 Minuten — Schritt für Schritt (Windows, Mac, Linux)

Von 0 zum laufenden lokalen LLM in 5 Minuten. Getestet auf Windows 11, macOS Sonoma und Ubuntu 24.04.

Weiterlesen →
Dein erster lokaler AI-Chatbot: Open WebUI in 10 Minuten einrichten
2026-03-12Open WebUI

Dein erster lokaler AI-Chatbot: Open WebUI in 10 Minuten einrichten

Ollama läuft, aber du willst ein Browser-Interface. So richtest du Open WebUI ein — das ChatGPT-Interface für deinen lokalen Stack.

Weiterlesen →
Your First Local AI Chatbot: Set Up Open WebUI in 10 Minutes
2026-03-12Open WebUI

Your First Local AI Chatbot: Set Up Open WebUI in 10 Minutes

Ollama is running, but you want a browser interface. Here's how to set up Open WebUI — the ChatGPT-like interface for your local stack.

Weiterlesen →
Terminal Basics for AI Developers — the 10 Commands You Actually Need
2026-03-12Terminal

Terminal Basics for AI Developers — the 10 Commands You Actually Need

No CS degree needed. These 10 terminal commands are all you need to start your own AI stack.

Weiterlesen →
Terminal-Grundlagen für AI-Entwickler — die 10 Befehle die du wirklich brauchst
2026-03-12Terminal

Terminal-Grundlagen für AI-Entwickler — die 10 Befehle die du wirklich brauchst

Kein Informatikstudium nötig. Diese 10 Terminal-Befehle reichen um deinen eigenen AI-Stack zu starten.

Weiterlesen →
Warum du kein ChatGPT im Unternehmen nutzen solltest — und was stattdessen
2026-03-12DSGVO

Warum du kein ChatGPT im Unternehmen nutzen solltest — und was stattdessen

DSGVO Art. 5, EU AI Act, Datentransfer in die USA: Die drei Gründe warum Self-Hosted AI für Unternehmen Pflicht ist.

Weiterlesen →
Was ist ein Large Language Model? Erklärt ohne Buzzwords
2026-03-12Grundlagen

Was ist ein Large Language Model? Erklärt ohne Buzzwords

LLM, GPT, Transformer — was steckt wirklich dahinter? Eine ehrliche Erklärung ohne Marketing-Sprache.

Weiterlesen →
What Is a Large Language Model? Explained Without Buzzwords
2026-03-12Basics

What Is a Large Language Model? Explained Without Buzzwords

LLM, GPT, Transformer — what's actually going on inside? An honest explanation without marketing speak.

Weiterlesen →
Why You Shouldn't Use ChatGPT at Work — and What to Use Instead
2026-03-12GDPR

Why You Shouldn't Use ChatGPT at Work — and What to Use Instead

GDPR Art. 5, EU AI Act, data transfer to the US: three reasons why self-hosted AI is mandatory for European companies.

Weiterlesen →
EU AI Act: 5 Pflichten die JETZT SCHON gelten
2026-03-11eu-ai-act

EU AI Act: 5 Pflichten die JETZT SCHON gelten

Der EU AI Act greift ab August 2026. Aber 5 Pflichten gelten bereits heute — wer sie ignoriert, riskiert Bußgelder bis zu 35 Mio. EUR. Hier ist die Checkliste.

Weiterlesen →
49 Custom Skills für Claude Code — So automatisieren wir alles
2026-03-09skills

49 Custom Skills für Claude Code — So automatisieren wir alles

Wie wir 49 maßgeschneiderte Skills gebaut haben, die unsere AI-Agents steuern.

Weiterlesen →
Agent Team Architecture — Wie 11 AI-Agents zusammenarbeiten
2026-03-09agents

Agent Team Architecture — Wie 11 AI-Agents zusammenarbeiten

Multi-Agent Orchestration mit Claude Code — von der Theorie zur Praxis.

Weiterlesen →
Skill-Erstellung Best Practices — Der offizielle Anthropic Standard
2026-03-09skills

Skill-Erstellung Best Practices — Der offizielle Anthropic Standard

Wie du professionelle Claude Code Skills erstellst — mit offiziellem Anthropic Standard.

Weiterlesen →
So überwachen wir 31 Docker Services mit Grafana
2026-03-08grafana

So überwachen wir 31 Docker Services mit Grafana

Enterprise-Monitoring für 31 Docker Swarm Services auf 6 Nodes — komplett lokal mit Prometheus, Grafana, Alertmanager und Loki. Kein Byte verlässt unser Netzwerk.

Weiterlesen →
36 n8n Workflows automatisieren unseren Alltag
2026-03-08n8n

36 n8n Workflows automatisieren unseren Alltag

Von Stripe-Zahlungen bis RSS-Digest: 36 aktive n8n Workflows auf Docker Swarm, mit PostgreSQL-Backend und 3-Level Ollama Fallback. Alles lokal, DSGVO-konform.

Weiterlesen →
Von RSS bis Social Media: Unsere vollautomatische Content-Pipeline
2026-03-08content-pipeline

Von RSS bis Social Media: Unsere vollautomatische Content-Pipeline

RSS-Feeds rein, fertige Social-Media-Posts raus. Mit n8n, Ollama, ComfyUI und CDP — komplett lokal, kein API-Zugang nötig, DSGVO-konform.

Weiterlesen →
DSGVO-konformer AI-Stack: Kein Byte verlässt unser Netzwerk
2026-03-08dsgvo

DSGVO-konformer AI-Stack: Kein Byte verlässt unser Netzwerk

LLM, Spracherkennung, Text-to-Speech, Bildgenerierung — alles lokal auf eigener Hardware. Warum das nicht nur für die DSGVO wichtig ist, sondern auch für den EU AI Act ab August 2026.

Weiterlesen →
EU AI Act 2026: Was Unternehmen jetzt tun müssen
2026-03-08eu-ai-act

EU AI Act 2026: Was Unternehmen jetzt tun müssen

Am 2. August 2026 greifen die ersten Pflichten des EU AI Act. Risikokategorien, Dokumentationspflichten, und was Unternehmen konkret tun müssen — mit 5-Punkte-Checkliste.

Weiterlesen →
Self-Hosted Ollama: 7 Gotchas die jeder kennen muss
2026-03-08ollama

Self-Hosted Ollama: 7 Gotchas die jeder kennen muss

Ollama lokal betreiben klingt einfach. Ist es auch — bis du auf OOM-Crashes, VRAM-Konflikte und stille Fehler stößt. Hier sind 7 Probleme und ihre Lösungen.

Weiterlesen →
Prompt Injection Protection: Was Self-Hosted AI Pipelines absichern muss
2026-03-08security

Prompt Injection Protection: Was Self-Hosted AI Pipelines absichern muss

Externe Daten an LLMs weiterleiten ist gefährlich. RSS-Feeds, Emails und Webhooks können manipulierte Anweisungen enthalten. So schützt du deine lokale AI-Pipeline.

Weiterlesen →
Unsere Content-Pipeline: Von RSS bis Social Media
2026-03-07n8n

Unsere Content-Pipeline: Von RSS bis Social Media

Wie wir mit n8n, Ollama und ComfyUI eine vollständig lokale Content-Pipeline aufgebaut haben — DSGVO-konform und ohne Cloud.

Weiterlesen →
📝

Skills Overview — AI Engineering Toolkit

Weiterlesen →

Nächster Schritt: vom Wissen in die Umsetzung

Wenn du mehr willst als Theorie: Setups, Workflows und Vorlagen aus dem echten Betrieb für Teams, die lokale und dokumentierte AI-Systeme wollen.

Warum AI Engineering
  • Lokal und self-hosted gedacht
  • Dokumentiert und auditierbar
  • Aus eigener Runtime entwickelt
  • Made in Austria
Kein Ersatz für Rechtsberatung.