Bugün Meta Ray-Ban gözlüklerimi kendi AI agent'ıma bağladım. Gözlükle bakıp "bu ne?" diyorum, Gemini görüntüyü analiz edip sesli cevap veriyor. Gerçek zamanlı. Forma üzerindeki imzaların kime ait olduğunu bile anladı eğlenceli deney oldu. Repoyu ekliyorum.
Nasıl çalışıyor:
🔹 Gözlük kamerası ~1fps görüntü + mikrofon sesi yakalıyor
🔹 iOS app Gemini Live API'ye WebSocket üzerinden gönderiyor
🔹 Gemini görüntüyü analiz edip sesli cevap veriyor
🔹 Opsiyonel: OpenClaw bağlarsan 56+ araç kullanabilir (mesaj at, web ara, akıllı ev kontrol, not al)
Gözlük olmadan da çalışıyor: iPhone kamerasını kullanarak aynı pipeline'ı test edebilirsin.
Ne lazım:
🔹 Meta Ray-Ban gözlük (veya sadece iPhone)
🔹 Xcode (iOS build için)
🔹 Opsiyonel: OpenClaw (agentic tool calling için)
Kurulum 30 dakika, hepsi açık kaynak.