WebLLM / LMStudio (Gemma 2 & 3) vs. Gemini Nano – kurzer Test von heute
Ich habe heute Gemma 2 und Gemma 3 über WebLLM bzw. LMStudio getestet und denselben Prompt zusätzlich mit Gemini Nano (Prompt API in Chrome) ausprobiert.
Ergebnis (Geschwindigkeit mal außen vor): Gemma hat mit genau diesem Prompt ziemlich schlecht abgeschnitten.Gemini Nano war deutlich besser und lieferte sinnvollere Antworten.
Schlussfolgerung:Gerade bei kleineren Modellen scheint das Prompt-Design extrem vom jeweiligen Modell abzuhängen. Man muss das System-Prompt pro Modell neu designen oder zumindest anpassen, um gute Ergebnisse zu bekommen.
Das heißt vermutlich auch, dass später, wenn die Prompt API offiziell ist, man zwischen Edge und Chrome (und anderen Browsern) unterscheiden muss, also wieder Browser-Weiche wie früher?
Was denkt Ihr?
1
0 comments
Stephan Haewß
2
WebLLM / LMStudio (Gemma 2 & 3) vs. Gemini Nano – kurzer Test von heute
powered by
AI Dev Community
skool.com/ai-dev-community-de-7617
Lerne, wie du die Zukunft baust. Integriere ChatGPT & lokale Modelle in deine Apps, teile Projekte & entwickle dich mit anderen Programmierern weiter.
Build your own community
Bring people together around your passion and get paid.
Powered by