🔒 Lokalny AI, który chroni Twoje dane
Sporo z Was pyta jak pracować z AI bez wysyłania firmowych danych do chmury. Kilka dni temu wyszedł model, który to realnie rozwiązuje. Qwen3.5-35B-A3B, open-source od Alibaba, darmowy, dostępny na HuggingFace. Przez kilka miesięcy używaliśmy z Norbertem Claude Sonnet 4.5 jako domyślnego modelu do agentycznej pracy, zanim wyszły Sonnet 4.6 i Opus 4.6. Qwen3.5 to mniej więcej ten poziom inteligencji, tyle że działa w pełni lokalnie, na Waszym komputerze, bez wysyłania czegokolwiek w chmurę. Na MacBooku M4 odpowiada szybko, bez irytującego czekania. Od strony technicznej: to model MoE, który ma 35B parametrów, ale w danym momencie używa tylko około 3B z nich. Dlatego potrzebuje relatywnie mało RAMu, około 24 GB, jak na taki poziom możliwości. Jak go uruchomić? Mamy lekcję o bezpieczeństwie w kursie, gdzie pokazujemy jak pracować z Ollama. Tam znajdziecie krok po kroku jak odpalić taki model lokalnie na swoim komputerze. Próbowaliście już czegoś lokalnie? Jakie macie doświadczenia?