Self-Hosted AI Agent · Open Source

OPENguentherbeta

Dein eigener KI-Agent — lokal, offen, erweiterbar.
Chat-Interface · Telegram · 25+ Tools · Docker-basiert.

Jetzt installieren GitHub ansehen
Schnellstart

In einer Zeile installiert

Voraussetzung: Linux mit Docker. Das war's.

bash — install.sh
$ curl -fsSL https://raw.githubusercontent.com/ghaslbe/openguenther/master/install.sh | bash
🛡️

⚠️ Einsatz auf eigene Gefahr Vollständiger Haftungsausschluss: Nutzer tragen die alleinige Verantwortung für den Betrieb, die Konfiguration und alle daraus resultierenden Folgen. Der Autor übernimmt keinerlei Haftung für Schäden jeglicher Art.  → Vollständige Hinweise lesen

Was OPENguenther (beta) kann

Alles was ein guter KI-Agent braucht

25+ eingebaute Tools · Vollständig erweiterbar · Open Source

💬

Chat & Interface

  • Markdown-Chat mit Syntax-Highlighting & Bildanzeige
  • Hell- und Dunkel-Modus (persistent gespeichert)
  • Kopier-Button auf jeder Nachricht
  • Live-Tool-Monitoring während Verarbeitung
  • „Guenther Terminal" mit Echtzeit-API-Logs
  • /new Befehl für neue Chatsessions
🧠

LLM Anbieter

  • OpenRouter — hunderte Modelle (OpenAI, Anthropic, Google, Meta …)
  • Ollama — lokal, kostenlos, vollständig offline
  • LM Studio — Desktop-App mit GGUF-Modellen
  • Pro-Tool individuelle Modell-Auswahl

KI-Fähigkeiten

  • Code-Interpreter: Python generieren & ausführen (mit Selbstkorrektur)
  • Datei-Upload 📎 für LLM-Kontext
  • Bildgenerierung via OpenRouter
  • Bildbearbeitung: Blur, Graustufen, Rotation, Crop
  • PowerPoint-Generierung mit Download
🕐

Automatisierung

  • Autoprompts: Intervall, täglich, wöchentlich
  • Stille Ausführung (Silent Mode) als Standard
  • Tool-Routing: automatische Vorauswahl relevanter Tools
📱

Telegram-Integration

  • Telegram als vollständiges Chat-Gateway
  • Sprachunterstützung: Speech-to-Text & Text-to-Speech
  • Ausgehende Nachrichten via send_telegram Tool
  • Fotos und Sprachnachrichten werden verarbeitet
🔧

Erweiterbarkeit

  • Tools direkt im Chat erstellen, bearbeiten & löschen
  • Python-Dateien einfach in custom_tools/ ablegen
  • Externe MCP-Server (JSON-RPC 2.0 stdio)
  • SSH-Tunnel für Remote Ollama / LM Studio
🛠

25+ Built-in Tools

  • Wetter, Börsenkurse, Geocoding, Flugverfolgung
  • QR-Code, E-Mail, Passwort-Generator
  • SEO-Analyse, Website-Metadaten
  • Mathematik, Präsentationen, Bilder
🐳

Deployment

  • Docker-Containerisierung — isoliert & reproduzierbar
  • Hetzner VPS-Anleitung (CX22, ~€4/Monat)
  • Alle Einstellungen via Web-Interface ⚙️
  • Daten in Docker-Volumes persistent
⚠️

Einsatz auf eigene Gefahr

🛡️

Vollständiger Haftungsausschluss: Nutzer tragen die alleinige Verantwortung für den Betrieb, die Konfiguration und alle daraus resultierenden Folgen. Der Autor übernimmt keinerlei Haftung für Schäden jeglicher Art.

💳

API-Ausgaben: Dringend empfohlen, bei LLM-Anbietern (z. B. OpenRouter) Ausgabenlimits zu setzen, um unkontrollierte Kosten durch Autoprompts oder Fehler zu vermeiden.

🔒

Sicherheit: Die Anwendung sollte keinesfalls ohne Authentifizierung öffentlich zugänglich gemacht werden. Fehlkonfiguration kann zu unbefugtem Zugriff führen.

⚖️

Rechtliche Verantwortung: Die Nutzung dieser Software geschieht ausschließlich auf eigenes Risiko. Für Schäden durch Fehlkonfiguration, unbefugten Zugriff oder unbeabsichtigte Nutzung wird keine Gewährleistung übernommen.

🐛

Keine Gewähr auf Fehlerfreiheit oder Sicherheit: Diese Software wird im aktuellen Zustand („as is") bereitgestellt. Es wird ausdrücklich darauf hingewiesen, dass die Anwendung — wie jede aktiv weiterentwickelte Software — mit hoher Wahrscheinlichkeit funktionale Unzulänglichkeiten, unbekannte Fehler sowie potenzielle Sicherheitsschwachstellen enthält, deren Natur und Auswirkungen zum Zeitpunkt des Einsatzes möglicherweise nicht vollständig bekannt sind. Die Entscheidung zum Betrieb obliegt ausschließlich dem Anwender, der sich dieser inhärenten Risiken bewusst sein und eigenverantwortlich geeignete Schutzmaßnahmen treffen muss.

Diese Hinweise sind explizit im README der Software vermerkt und werden hier ausdrücklich wiederholt.

Einrichtung

So geht's los

Schritt für Schritt zur eigenen KI-Instanz

01

Installation

Das Installationsskript richtet Git und Docker automatisch ein, klont das Repository und startet den Container. Danach ist OPENguenther beta unter http://localhost:3333 erreichbar.

$ curl -fsSL https://raw.githubusercontent.com/ghaslbe/openguenther/master/install.sh | bash
02

LLM Provider einrichten

Über das Zahnrad-Symbol ⚙️ in der Oberfläche können LLM-Anbieter aktiviert und konfiguriert werden. Anschließend unter Einstellungen → Allgemein den gewünschten Anbieter als Standard-Provider auswählen.

🌐 OpenRouter Cloud
  1. Account erstellen auf openrouter.ai
  2. Keys → Create Key → API-Key kopieren
  3. Key in Einstellungen eintragen
  4. Modell wählen (z. B. google/gemini-2.0-flash)
  5. Als Standard-Provider festlegen
🏠 Ollama / LM Studio Lokal
  1. Ollama oder LM Studio installieren
  2. Modell laden, z. B. Qwen3 Coder
  3. Server-URL in Einstellungen eintragen
  4. Als Standard-Provider festlegen
03

Telegram Gateway optional

Guenther lässt sich als Telegram-Bot betreiben. Nachrichten, Bilder und Sprachnachrichten werden direkt an den Agent weitergeleitet.

  • 1 Bot-Token bei @BotFather erstellen und in Einstellungen eintragen
  • 2 Erlaubte Telegram-Usernames in die Whitelist eintragen (ohne @)
  • 3 Im Telegram-Chat /new Mein Chat eingeben, um eine neue Session zu starten