Ollama und Bolt.diy (MacBook Pro M4)
Ich sag’s ehrlich: Mit dem lokalen Macbook KI- Setup bin ich aktuell "noch" überhaupt nicht zufrieden. Die Kombi aus Ollama und Bolt.diy auf meinem MacBook macht zwar „irgendwas“ – aber so richtig brauchbare Ergebnisse hab ich damit bisher nicht hinbekommen. Ich hab zum Testen mal simple Sachen gemacht, z. B. "Zeldo" Prompts wie:„Erstelle eine einfache HTML Landing Page für ein Podcast Studio. Dunkles Design und zeig sie in der Preview.“und danach:„Mach eine Hero Section, style alles im Cyberpunk-Stil und zeig sie in der Preview.“ Mit qwen3:14b kam da tatsächlich was raus – also grundsätzlich funktioniert es. Aber sobald ich eigene, etwas komplexere Ideen umsetzen will, wird’s schnell unsauber oder einfach unbrauchbar. Ich bin ein bisschen verwöhnt von Claude Code. Ich hab auch andere Lokakle KI-Modelle durchprobiert: - deepseek-coder:6.7b - Llama - Mistral - Code Llama Ergebnis bisher: viel Output, wenig Substanz. Für Spielereien okay, aber produktiv arbeiten? Schwierig. Vielleicht fehlt noch das perfekte Setup oder Feintuning – aber Stand jetzt ist das Ganze für mich eher „nice to test“ als wirklich brauchbar. Die lokalen Berechnungen benötigen ziemlich viel Strom. Der Akku des MacBooks ist dann schnell leer. - MacBook Pro (Nov. 2024, 14″) – Apple M4 Pro (14-Core CPU, 20-Core GPU), 24 GB RAM, 1 TB SSD, macOS Tahoe 26.3