Kann ich Ollama in Claude Code installieren und lokal nutzen?
Ja, offiziell unterstuzt. Drei Umgebungsvariablen setzen vor dem Start:
ANTHROPIC_AUTH_TOKEN=ollama
ANTHROPIC_API_KEY=""
ANTHROPIC_BASE_URL=http://localhost:11434
Dann: claude --model dein-modell-name. Wichtig: Claude Code braucht mindestens 64k Kontextfenster. Empfohlene Modelle: Qwen3, Llama 3.3, DeepSeek-Coder. Hardware: 32 GB RAM empfohlen, 16 GB möglich aber ruppiger.
0
0 comments
Patrick Tlauka
1
Kann ich Ollama in Claude Code installieren und lokal nutzen?
powered by
The Node AI
skool.com/the-node-ai-1461
Templates, KI-News & Workflows — jede Woche neue infos. Weniger arbeiten, mehr erreichen. Kostenlos beitreten.
Build your own community
Bring people together around your passion and get paid.
Powered by