AnythingLLM selbst hosten – der einfache Weg

AnythingLLM selbst hosten – der einfache Weg

Yulei Chen - Content-Engineerin bei sliplane.ioYulei Chen
5 min

AnythingLLM ist eine All-in-One AI-Anwendung, mit der du mit deinen Dokumenten chatten, AI Agents bauen und RAG (Retrieval-Augmented Generation) mit jedem LLM Provider nutzen kannst. OpenAI, Anthropic, Ollama und viele mehr werden unterstützt. Das Beste: Es ist komplett Open-Source und für Self-Hosting gebaut.

Sliplane ist eine Managed-Container-Plattform, die Self-Hosting schmerzlos macht. Mit One-Click-Deployment läuft AnythingLLM in wenigen Minuten - kein Server-Setup, keine Reverse-Proxy-Config, keine Infrastruktur zum Verwalten.

Voraussetzungen

Vor dem Deploy brauchst du einen Sliplane-Account (kostenlose Trial verfügbar).

Quick Start

Sliplane bietet One-Click-Deployment mit Presets.

SliplaneDeploy AnythingLLM >
  1. Klick auf den Deploy-Button oben
  2. Wähl ein Projekt
  3. Wähl einen Server. Wenn du dich gerade erst angemeldet hast, bekommst du einen 48-Stunden-Trial-Server
  4. Klick auf Deploy!

Über das Preset

Der One-Click-Deploy oben nutzt Sliplanes AnythingLLM-Preset. Das ist enthalten:

  • Offizielles mintplexlabs/anythingllm Docker Image mit gepinntem Version-Tag
  • LanceDB als eingebaute Vektordatenbank (keine externe Datenbank nötig)
  • Persistenter Storage gemountet auf /app/server/storage, damit deine Dokumente, Workspaces und Einstellungen Neustarts überleben
  • Vorkonfiguriert mit Ollama als Standard-LLM und Embedding Provider (zeigt auf ollama.internal im internen Sliplane-Netzwerk)
  • Lauscht auf Port 3001
  • Telemetrie standardmäßig deaktiviert

Wenn du statt Ollama einen Cloud-LLM-Provider (wie OpenAI oder Anthropic) nutzen willst, kannst du die LLM_PROVIDER-Variable und zugehörige Environment Variables nach dem Deployment ändern.

Nächste Schritte

Sobald AnythingLLM auf Sliplane läuft, erreichst du es über die Domain, die Sliplane dir gibt (z.B. anythingllm-xxxx.sliplane.app).

Ersteinrichtung

AnythingLLM führt dich beim ersten Besuch durch einen Setup-Wizard. Dort konfigurierst du:

  • Deinen LLM Provider und dein Model
  • Deinen Embedding Provider
  • Deine Vektordatenbank (LanceDB ist schon eingerichtet)
  • Ob du den Multi-User-Modus aktivieren willst

LLM Provider verbinden

Das Preset nutzt standardmäßig Ollama. Wenn du eine Ollama-Instanz auf Sliplane deployst, kann AnythingLLM darüber per internes Netzwerk kommunizieren. Achte drauf, dass die OLLAMA_BASE_PATH-Variable auf den internen Hostnamen deines Ollama-Service zeigt (z.B. http://ollama.internal:11434).

Für einen Cloud-Provider aktualisier diese Environment Variables:

VariableBeispiel
LLM_PROVIDERopenai, anthropic, azure, etc.
OPEN_AI_KEYDein OpenAI API Key
ANTHROPIC_API_KEYDein Anthropic API Key

Die vollständige Liste unterstützter Provider findest du in den AnythingLLM Docs.

Environment Variables

Hier die wichtigsten Environment Variables, die du anpassen kannst:

VariableDefaultBeschreibung
LLM_PROVIDERollamaWelcher LLM Provider genutzt wird
OLLAMA_BASE_PATHhttp://ollama.internal:11434Ollama API Endpoint
VECTOR_DBlancedbVektordatenbank-Engine
AUTH_TOKEN(zufällig)API Authentication Token
JWT_SECRET(zufällig)Secret für JWT Token Signing
PASSWORDMINCHAR8Minimale Passwortlänge für User

Logging

AnythingLLM loggt standardmäßig nach STDOUT, was perfekt mit Sliplanes eingebautem Log-Viewer funktioniert. Allgemeine Docker-Log-Tipps findest du in unserem Post über how to use Docker logs.

Troubleshooting

Wenn AnythingLLM nach dem Deployment nicht antwortet, prüf diese häufigen Probleme:

  • Port-Mismatch: Achte drauf, dass die PORT-Variable auf 3001 gesetzt ist
  • Storage-Berechtigungen: Der Container läuft standardmäßig als User 1000:1000
  • LLM-Verbindung: Wenn du Ollama nutzt, prüf ob der Ollama-Service läuft und im internen Netzwerk erreichbar ist

Kostenvergleich

Natürlich kannst du AnythingLLM auch bei anderen Cloud-Providern selbst hosten. Hier ein Preisvergleich der gängigsten Optionen:

ProvidervCPU CoresRAMDiskGeschätzte monatliche KostenHinweise
Sliplane22 GB40 GB€9Abrechnung pro Server
Render12 GB40 GB~$35-$45VM Small
Fly.io22 GB40 GB~$20-$25VM + Volume
Railway22 GB40 GB~$15-$66Nutzungsbasiert

FAQ

Was kann ich mit AnythingLLM machen?

AnythingLLM lässt dich per RAG mit deinen Dokumenten chatten (PDFs, Word-Dateien, Webseiten und mehr). Du kannst eigene AI Agents bauen, mehrere Workspaces für verschiedene Themen erstellen und sogar eine API für deine eigenen Anwendungen bereitstellen. Es funktioniert mit praktisch jedem LLM Provider, du bist also nicht an einen Anbieter gebunden.

Wie verbinde ich AnythingLLM mit Ollama auf Sliplane?

Deploy einen Ollama-Service auf dem gleichen Sliplane-Server. AnythingLLM kann dann über das interne Netzwerk auf Ollama zugreifen unter http://ollama.internal:11434. Das Preset hat das schon konfiguriert. Du musst nur noch ein Model in Ollama pullen (z.B. llama2) und los geht's. Wenn du Hilfe mit Ollama brauchst, schau dir unseren Post über Self-Hosting von Open WebUI mit Ollama an.

Wie aktualisiere ich AnythingLLM?

Änder den Image-Tag in deinen Service-Einstellungen und redeploy. Prüf Docker Hub für die neueste stabile Version.

Welche Alternativen gibt es zu AnythingLLM?

Beliebte Alternativen sind Flowise (Drag-and-Drop LLM Flow Builder), Langflow (Low-Code AI Builder) und Open WebUI (Chat-Interface für Ollama und andere LLMs). Jedes Tool hat einen anderen Fokus, such dir das aus, das am besten zu deinem Use Case passt.

Kann ich AnythingLLM mit mehreren Usern nutzen?

Ja. AnythingLLM unterstützt einen Multi-User-Modus mit rollenbasierter Zugriffskontrolle. Du kannst Admin- und normale User-Accounts anlegen, jeder mit eigenen Workspaces und Berechtigungen. Aktivier es beim initialen Setup-Wizard oder später in den Settings.

Host AnythingLLM jetzt selbst – so einfach!

Sliplane gibt dir alle Tools, die du brauchst, um AnythingLLM ohne Server-Stress zu betreiben.