Activity
Mon
Wed
Fri
Sun
Jun
Jul
Aug
Sep
Oct
Nov
Dec
Jan
Feb
Mar
Apr
May
What is this?
Less
More

Memberships

Automatable Free

11.2k members • Free

KI Flow

1.9k members • Free

Openclaw Founders

849 members • Free

OpenClaw Users

904 members • Free

Claude Code DACH

94 members • Free

AI Automation Nation

44 members • Free

KI-CHAMPIONS Community

11.9k members • Free

KI Business Agenten

212 members • $97/month

KI Agentur Masterclass

4.9k members • Free

1 contribution to n8n, KI & Automation
Lokale KI I Welchen Laptop nutzt Ihr?
Da die Berücksichtigung der DSGVO Vorgaben nicht nur beim Betrieb von n8n, sondern bei jedwedem KI-Tool/ LLM Einsatz essentiell ist, bastelte ich mir gestern Abend eine kleine lokale Umgebung mit Ollama und OpenWebUI plus LLAMA bzw. Mistral. Gern würde ich jene LLMs nun auch mit ihren jeweils besten Modellen (bspw. LLAMA 70B) auf meiner Maschine nutzen, benötige dafür aber dort eine entsprechende Performance (Grafikkarte NVIDIA RTX 4080/4090/5080/5090 mit mind 16 VRAM, mind 64 RAM etc.). Bringt mich zu meiner Frage: hat irgendjemand bitte ähnliche Erfahrungen und sich LLMs bereits lokal auf seinem Laptop gehostet? Welche Maschine nutzt Ihr dafür bitte (alternative Server- oder KI Workstation Lösung ist für mich nicht interessant)?
1-1 of 1
Julius Grote
1
3points to level up
@julius-grote-2844
AI tools evangelist I AI & IT & strategy consulting for financial industry I 3 kids I Prenzlauer Berg

Active 9h ago
Joined Sep 17, 2025
Berlin