
Google oficjalnie uruchomiło w Stanach Zjednoczonych nową funkcję o nazwie Search Live. Umożliwia ona prowadzenie interaktywnej rozmowy głosowej z wyszukiwarką, która jednocześnie analizuje obraz przekazywany na żywo z kamery telefona. W praktyce oznacza to, iż Google może zobaczyć to, co my i w czasie rzeczywistym odpowiadać na pytania dotyczące otaczającego nas świata.
Nowa funkcja stanowi ewolucję dotychczasowych możliwości wyszukiwania wizualnego znanego z aplikacji Obiektyw Google (Google Lens). Search Live idzie jednak o krok dalej, łącząc analizę obrazu wideo z modelem konwersacyjnym AI. Użytkownik nie musi już robić zdjęcia i czekać na wyniki – może na bieżąco prowadzić dialog z asystentem, zadając mu kolejne pytania dotyczące tego, co widzi w obiektywie aparatu. Aby skorzystać z nowości, wystarczy dotknąć ikony „Live” w aplikacji Google lub wybrać tę opcję w interfejsie Obiektywu.
Sztuczna inteligencja uczy się, gdy ty śpisz
Google w swoim komunikacie przedstawia szereg praktycznych zastosowań, które mają obrazować potencjał nowej technologii. Jednym z kluczowych jest pomoc w rozwiązywaniu problemów technicznych. Zamiast wpisywać w wyszukiwarkę model telewizora i typy kabli, użytkownik może po prostu skierować na nie aparat i zapytać: „który przewód mam wpiąć do którego gniazda?”. AI ma zrozumieć kontekst wizualny i udzielić natychmiastowej odpowiedzi, a także podsunąć linki do bardziej szczegółowych instrukcji.
Inne przykłady obejmują pomoc w rozwijaniu nowych hobby, gdzie można zapytać o przeznaczenie poszczególnych narzędzi w zestawie, czy wsparcie w projektach edukacyjnych, prosząc AI o wyjaśnienie reakcji chemicznej zachodzącej w domowym eksperymencie. Funkcja ma się również sprawdzać w podróży, umożliwiając uzyskanie informacji o mijanych zabytkach czy ciekawych miejscach bez konieczności odrywania wzroku od otoczenia, by wpisać zapytanie tekstowe.
Na ten moment funkcja Search Live dostępna jest wyłącznie w języku angielskim na terenie Stanów Zjednoczonych, na urządzeniach z systemem Android oraz iOS. Jej publiczne udostępnienie, już bez konieczności zapisywania się do programu testowego Labs, jest jednak wyraźnym sygnałem, w jakim kierunku Google zamierza rozwijać swoją wyszukiwarkę. To kolejny krok w stronę wyszukiwania multimodalnego, które w przyszłości ma się stać znacznie bardziej intuicyjne i interaktywne niż dzisiejsze pole tekstowe.
Google aktualizuje Gemini. Lepsze formatowanie, rozumienie obrazów i nowe wersje dla deweloperów
Jeśli artykuł Google Search Live już działa. Skieruj aparat na problem, a AI powie ci, co robić nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.