🔒 Lokalny AI, który chroni Twoje dane
Sporo z Was pyta jak pracować z AI bez wysyłania firmowych danych do chmury. Kilka dni temu wyszedł model, który to realnie rozwiązuje.
Qwen3.5-35B-A3B, open-source od Alibaba, darmowy, dostępny na HuggingFace.
Przez kilka miesięcy używaliśmy z Norbertem Claude Sonnet 4.5 jako domyślnego modelu do agentycznej pracy, zanim wyszły Sonnet 4.6 i Opus 4.6. Qwen3.5 to mniej więcej ten poziom inteligencji, tyle że działa w pełni lokalnie, na Waszym komputerze, bez wysyłania czegokolwiek w chmurę. Na MacBooku M4 odpowiada szybko, bez irytującego czekania.
Od strony technicznej: to model MoE, który ma 35B parametrów, ale w danym momencie używa tylko około 3B z nich. Dlatego potrzebuje relatywnie mało RAMu, około 24 GB, jak na taki poziom możliwości.
Jak go uruchomić? Mamy lekcję o bezpieczeństwie w kursie, gdzie pokazujemy jak pracować z Ollama. Tam znajdziecie krok po kroku jak odpalić taki model lokalnie na swoim komputerze.
Próbowaliście już czegoś lokalnie? Jakie macie doświadczenia?
2
1 comment
Piotr Romański
6
🔒 Lokalny AI, który chroni Twoje dane
Startuj.AI
skool.com/startujai
Pokazujemy jak zrozumieć i praktycznie wykorzystać sztuczną inteligencję w życiu, pracy i biznesie.
Leaderboard (30-day)
Powered by