
Apple intensywnie pracuje nad inteligentnymi okularami z AI, które mają konkurować z Meta Ray-Banami.
Premiera spodziewana jest około 2027 roku, wraz z nowymi AirPodsami wyposażonymi w kamery i funkcje sztucznej inteligencji.
Choć urządzenie pozostaje tajemnicą, Apple ujawniło, jak może wyglądać jego system AI. Kluczową rolę ma odegrać autorski framework MLX, stworzony specjalnie dla Apple Silicon. Pozwala on na lokalne trenowanie i uruchamianie modeli AI bez potrzeby łączenia się z chmurą.
Apple właśnie zaprezentowało FastVLM – nowy wizualno-językowy model AI, który dzięki kodowaniu FastViTHD przetwarza obraz w wysokiej rozdzielczości z bardzo niskim opóźnieniem i mniejszym zużyciem mocy obliczeniowej.
Jak pisze Apple:
W oparciu o kompleksową analizę wydajności wzajemnych relacji między rozdzielczością obrazu, opóźnieniem wizji, liczbą tokenów i rozmiarem LLM, wprowadzamy FastVLM – model, który osiąga zoptymalizowany kompromis między opóźnieniem, rozmiarem modelu i dokładnością.
FastVLM jest:
- nawet 3,2x szybszy i 3,6x mniejszy od porównywalnych modeli,
- zoptymalizowany pod kątem urządzeń mobilnych i wearables,
- zdolny do generowania odpowiedzi 85 razy szybciej (czas do pierwszego tokenu),
- zaprojektowany do lokalnego działania – najważniejsze w urządzeniach jak inteligentne okulary.
Model FastVLM dostępny jest na GitHubie, a jego dokumentacja naukowa na arXiv.
Pierwsze wrażenia z Meta Ray-Ban Wayfarer – rób zdjęcia, wideo lub livestreamuj
Jeśli artykuł Apple może wykorzystać model FastVLM do inteligentnych okularów z AI nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.