Do tej pory systemy AI generowały treści, takie jak teksty, obrazy i filmy. Google chce teraz pójść o krok dalej z nową generacją swojego systemu Gemini i udostępnić wirtualnych asystentów.
Nowa generacja systemu Google Gemini AI będzie w przyszłości mogła samodzielnie wykonywać określone zadania jako asystent. Google ogłosiło to w rocznicę pierwszej premiery Gemini w Mountain View. Można sobie wyobrazić, iż „agent AI” mógłby zlokalizować komponenty do hobbystycznego projektu w sklepach internetowych i samodzielnie umieścić je w koszyku. Jednak faktyczny proces składania zamówienia przez cały czas będzie prowadzony przez użytkownika.
„Sztuczna inteligencja powinna stać się bardziej użyteczna”
Dyrektor generalny Google , Sundar Pichai, powiedział, iż pierwsza generacja Gemini 1.0 służyła do organizowania i rozumienia informacji. „Gemini 2.0 ma być znacznie bardziej użyteczny”.
Nowi asystenci AI są częścią „Projektu Mariner”, który został wdrożony wraz z nową generacją AI. Gemini 2.0 zostało opracowane z myślą o epoce agentów, powiedział menadżer Google, Tulsee Doshi. System potrafi korzystać z inteligentnych narzędzi i ma bezpośredni dostęp do produktów Google takich jak wyszukiwarka. Może choćby wykonać kod programu. „Dzięki tym funkcjom agenci potrafią myśleć, zapamiętywać, planować, a choćby podejmować działania w imieniu użytkowników”.
„Mariner” zachowuje się tak samo, jak użytkownicy w przeglądarce – podkreślił Doshi. „Potrafi klikać, pisać i przewijać, tak jak Ty jako użytkownik”. System identyfikuje jednak również szereg zadań, których agent nie powinien podejmować w imieniu użytkownika. „Dobrym przykładem jest to, iż Mariner nie dokona zakupu, jeżeli najpierw nie zapyta użytkownika, czy naprawdę tego chce”. „Mariner” zostanie najpierw przetestowany na godnych zaufania obiektach testowych, zanim zostanie udostępniony szerszej publiczności.
Nowe okulary AI
W ramach „Projektu Astra” Google kontynuuje w tej chwili projekt badawczy mający na celu zbadanie środowiska opartego na Gemini 2.0, które po raz pierwszy zaprezentowano wiosną ubiegłego roku na konferencji programistów Google I/O. W przyszłości użytkownicy będą mogli zobaczyć przydatne informacje nie tylko na telefonie, ale także na inteligentnych okularach. Przypominają okulary Ray-Ban Facebookowej firmy Meta, które potrafią rozpoznawać budynki czy dzieła sztuki czy pomagać w gotowaniu.
Wariant systemu Gemini Flash jest szczególnie odpowiedni dla twórców oprogramowania, którzy oferują własne rozwiązania oparte na Google AI. Może działać nie tylko na dużych komputerach w centrum danych, ale także lokalnie na komputerach osobistych lub niektórych modelach telefonów. W środę Google zaprezentowało Gemini Flash 2.0, który według firmy zapewnia lepszą wydajność przy równie krótkim czasie reakcji.