Meta właśnie ogłosiła, iż w inteligentnych okularach Ray-Ban zostaną wprowadzone trzy nowe funkcje: sztuczna inteligencja na żywo, tłumaczenia na żywo i Shazam. Zarówno sztuczna inteligencja na żywo, jak i tłumaczenie na żywo są dostępne wyłącznie dla członków programu wczesnego dostępu Meta, natomiast wsparcie Shazam jest dostępne dla wszystkich użytkowników w USA i Kanadzie.
Po raz pierwszy wyśmiewano zarówno sztuczną inteligencję na żywo, jak i tłumaczenie na żywo MetaPołącz 2024 wcześniej w tym roku. Live AI umożliwia naturalną rozmowę z asystentem AI Meta, który stale obserwuje otoczenie. Na przykład, jeżeli przeglądasz sekcję z produktami w sklepie spożywczym, teoretycznie będziesz mógł poprosić sztuczną inteligencję Meta o zasugerowanie przepisów na podstawie składników, które przeglądasz. Meta twierdzi, iż użytkownicy będą mogli korzystać z funkcji AI na żywo przez około 30 minut bez przerwy po pełnym naładowaniu.
Tymczasem tłumaczenie na żywo umożliwia okularom tłumaczenie mowy w czasie rzeczywistym między angielskim a hiszpańskim, francuskim lub włoskim. Możesz słuchać tłumaczeń przez same okulary lub przeglądać transkrypcje na telefonie. Musisz wcześniej pobrać pary językowe, a także określić, jakim językiem mówisz w porównaniu z językiem, którym mówi Twój rozmówca.
Obsługa Shazam jest nieco prostsza. Wszystko, co musisz zrobić, to powiadomić Meta AI, gdy usłyszysz piosenkę, a ona powinna być w stanie powiedzieć Ci, czego słuchasz. Możesz zobaczyć, jak dyrektor generalny Meta, Mark Zuckerberg, demonstruje to w tym
.
Jeśli nie widzisz jeszcze tych funkcji, sprawdź, czy na okularach działa oprogramowanie w wersji 11 i czy używasz także wersji 196 aplikacji Meta View. jeżeli nie uczestniczysz jeszcze w programie wczesnego dostępu, możesz złożyć wniosek za pośrednictwem tę witrynę.
Aktualizacje pojawiają się w chwili, gdy Big Tech uznaje asystentów AI za podstawę istnienia inteligentnych okularów. Zaledwie w zeszłym tygodniu Google ogłosił Androida XRnowy system operacyjny dla inteligentnych okularów i specjalnie umiejscowiony jego asystent Gemini AI jako aplikacja zabójcza. Tymczasem dyrektor techniczny Meta Andrew Bosworth właśnie opublikowałem bloga wyrażając opinię, iż „2024 był rokiem, w którym okulary AI osiągnęły sukces”. Bosworth twierdzi w nim również, iż inteligentne okulary mogą być najlepszą możliwą formą dla „urządzenia prawdziwie natywnego dla sztucznej inteligencji” i pierwszą kategorią sprzętu, która „od początku zostanie całkowicie zdefiniowana przez sztuczną inteligencję”.
Source link