To, czego brakuje okularom Meta, jest tym, co najbardziej ekscytuje mnie w okularach Apple

cyberfeed.pl 6 miesięcy temu


Kiedy wypróbowałem okulary Ray-Ban Meta w zeszłym tygodniu opisałem sztuczna inteligencja Na razie jest to w dużej mierze chwyt marketingowy, ale mimo to napawa mnie ekscytacją na myśl o przyszłości Okulary jabłkowe produkt.

Kilku komentatorów zauważyło, iż okulary radzą sobie nieco lepiej, gdy zadawane są dodatkowe pytania, więc wypróbowałem tę funkcję podczas innego spaceru, aby odkryć mieszankę trafień i chybień. Ale co jest Naprawdę brakuje w tej chwili integracji…

Okulary nie mają dostępu do GPS podłączonego iPhone’a, więc nie mogą używać lokalizacji jako wskazówki. Nie mają dostępu do aplikacji innych firm, więc nie mogą pobierać z nich danych na przykład do transportu publicznego. To, czego naprawdę potrzebujemy, to w pełni połączony ekosystem – i przychodzi mi do głowy firma, która się w tym specjalizuje…

Długoterminowe marzenie o sztucznej inteligencji

O moim długoterminowym marzeniu o w pełni połączonej Siri pisałem już wcześniej. Prawie dziesięć lat temu marzyłem o tym, aby móc wydać mu polecenie w stylu „Umów się na lunch z Samem w przyszłym tygodniu” i pozostawić go do ustalenia wszystkich szczegółów.

Siri wie, kim jest Sam, więc to w porządku. Ma dostęp do mojego kalendarza, więc wie, kiedy mam wolne terminy na lunch. Następnie musi wiedzieć, kiedy Sam ma wolne terminy na lunch.

To nie powinno być skomplikowane. Microsoft Outlook od lat oferuje delegowany dostęp do kalendarzy, gdzie współpracownicy mogą przeglądać swoje pamiętniki na poziomie wolny/zajęty, a upoważnione osoby mogą dodawać spotkania. Dlatego potrzebujemy tutaj odpowiednika iCloud.

Mój iPhone sprawdza kalendarz Sama w iCloud pod kątem wolnych terminów na lunch i dopasowuje je do mojego. Okazuje się, iż w środę oboje jesteśmy wolni, więc ustala lunch.

A może zrobić jeszcze więcej. Mój iPhone mógł z łatwością zanotować moje ulubione restauracje i restauracje Sama i znaleźć tę, którą oboje lubimy. Następnie może przejść online do systemu rezerwacji restauracji i dokonać rezerwacji.

OpenAI właśnie dało nam kolejne spojrzenie na przyszłość sztucznej inteligencji w postaci GPT-4o, wersji ChatGPT, która może używać kamer iPhone’a do sprawdzania, co jest wokół nas (a także rejestratora ekranu aby zobaczyć, co jest na naszym ekranie w innych aplikacjach).

Zdolność widzenia wokół nas jest oczywiście znacznie wygodniejsza dzięki inteligentnym okularom. Nie musimy podnosić telefonu, po prostu pytamy o okulary.

Zauważyłem, iż dali mi okulary Ray-Ban Meta głównie ogólne informacje o tym, co mnie otaczało, z kilkoma wyjątkami. Zadawanie dodatkowych pytań ujawniło mieszankę imponujących i niezbyt imponujących wyników – a także takie, które po prostu wskazują na funkcje, które będą istnieć, ale jeszcze nie istnieją.

Ten przykład zrobił niesamowite wrażenie, zwłaszcza iż jestem pewien, iż znak był za mały, aby zobaczyć tekst i choćby nie wiedział, w jakim mieście się znajdujemy:

Ostatnim razem zauważyłem, iż nie identyfikowali konkretnie roślin, ale niektóre dalsze analizy wykazały, iż czasami mogą być w tym dobrzy.

Również imponujące:

Tutaj nie jest to zły wynik:

W przypadku tej kontynuacji również spisał się całkiem nieźle, choć znowu kluczowa będzie tutaj integracja – w idealnym przypadku byłaby możliwość pobrania/otwarcia aplikacji na moim telefonie.

Następny przykład naprawdę pokazuje, iż wszystko musi działać razem. Pokazałem mu autobus i zapytałem, dokąd jedzie autobus. Powinien być w stanie odczytać tablicę docelową i numer, a ja mam CityMapper na telefonie, ale ta wymiana była bolesna!

Powiedziałem mu, iż autobus ma trasę 135, ale ponieważ nie ma dostępu do GPS w iPhonie, choćby nie wiedział, iż jest w Londynie.

W końcu, kiedy powiedziałem, iż jesteśmy w Londynie, dotarło!

Nie skanuje kodów QR (wybaczę, iż pomylił moje odbicie z osobą za drzwiami).

Wreszcie, nie jest źle bez GPS i najwyraźniej wizualnego rozpoznawania stacji (może czytając znak, ale podejrzewam, iż nie, ponieważ zwykle nie czyta tekstu, chyba iż z dość bliska):

Wskazywało możliwe kolejne przystanki, a nie miejsce docelowe. Ale mając dostęp do CityMappera lub podobnego, byłby w stanie dać dużo bardziej przydatna odpowiedź.

Brakuje więc tutaj specjalizacji Apple’a

Meta używa Lamy 2. Po prostu OpenAI podniósł stawkę dzięki GPT-4o. Oczekuje się, iż Apple użyje kombinacji OpenAI i własnego silnika AI.

Wszystko to jest wspaniałą wiadomością. Sztuczna inteligencja rozwija się już w fenomenalnym tempie, a konkurencja pomiędzy firmami tylko przyspieszy tempo udoskonaleń. Tak czy inaczej dołączenie Apple byłoby dobrą wiadomością.

Ale wyobraź sobie, iż Apple wprowadza na stół swoje podejście do ekosystemu będącego znakiem towarowym. Sprzęt i oprogramowanie współpracują ze sobą. Integracja różnych urządzeń w celu wykorzystania wszystkich ich możliwości. Jest to co jest potrzebne, aby naprawdę przekształcić tego rodzaju technologię. Nie mogę się doczekać, co Apple z tym zrobi.

Zdjęcie: Meta

FTC: Korzystamy z automatycznych linków partnerskich generujących dochód. Więcej.



Source link

Idź do oryginalnego materiału