Najbardziej skomplikowane problemy to zazwyczaj te, które dotyczą codziennego życia. Właśnie Google osiągnęło liczbę 2 miliardów użytkowników Androida, YouTube ma nie tylko miliard użytkowników, ale także jest na nim oglądane miliard godzin wideo każdego dnia, użytkownicy używają Map Google do wyznaczania 1 mld km tras dziennie. Ten wzrost byłby nie do pomyślenia bez przejścia komputeryzacji w erę urządzeń mobilnych, nowego modelu interakcji, takich jak ekrany dotykowe. Jesteśmy świadkami kolejnej zmiany w komputeryzacji, przejście od świata mobile first do AI first. Wystarczy pomyśleć o wyszukiwarce Google: została zbudowana dzięki możliwości rozumienia stron internetowych. Jednak teraz, dzięki postępom w dziedzinie sztucznej inteligencji i uczeniu maszynowemu, jesteśmy w stanie uczynić obrazy, zdjęcia, wideo i mowę przydatnymi, co nie było osiągalne wcześniej. Twój aparat może „widzieć”, możesz mówić do swojego telefonu i uzyskać odpowiedzi – mowa i widzenie stają się tak samo ważne jak klawiatury czy ekrany dotykowe.

Asystent jest najlepszym przykładem tego postępu. Dostępny jest już na 100 mln urządzeń i staje się każdego dnia coraz bardziej przydatny.

Możemy teraz rozróżnić różne głosy w Google Home, dając użytkownikom bardziej spersonalizowane doświadczenie korzystania z urządzenia. Dziś, jesteśmy także w stanie uczynić aparat w telefonie, narzędziem, które pomoże wykonywać zadania. Google Lens to zestaw możliwości przetwarzania informacji wizualnych, które pozwolą zrozumieć to na co patrzysz i pomogą podjąć działanie w oparciu o te informacje. Jeśli przedzierałeś się pod biurkiem kolegi by zobaczyć długie, skomplikowane hasło do Wi-Fi naklejone z tyłu routera, to teraz telefon może rozpoznać to hasło, stwierdzić, że próbujesz zalogować się do sieci i automatycznie cię zalogować. Najważniejsze, że nie musisz uczyć się czegoś nowego – interfejs i Twoje doświadczenie mogą być znacznie bardziej intuicyjne niż np. kopiowanie i wklejanie w aplikacjach na smartfonie.
Na początku Google wprowadza funkcje Google Lens w Asystencie i Zdjęciach Google, możecie się spodziewać jej także niebawem w kolejnych produktach.
![]() |
Dzięki Google Lens aparat smartfona nie tylko zobaczy to, co widzisz, ale także zrozumie, czego szukasz i pomoże Ci podjąć działanie. |
Wszystko to wymaga odpowiedniej architektury obliczeniowej. W zeszłym roku Google ogłosił pierwszą generację TPU, które pozwalają na szybsze i sprawniejsze działanie algorytmów uczenia maszynowego. Dzisiaj zapowiedział następną generację TPU – Cloud TPU, które są zoptymalizowane zarówno dla interferencji jak i treningu i potrafią przetwarzać bardzo dużo informacji. Aby firmy i programiści mogli korzystać z tych rozwiązań, wprowadzamy Google Cloud TPU do Google Compute Engine.
![]() |
Cloud-TPU są specjalnie skonstruowane do uczenia maszynowego; 64 z tych urządzeń może zostać połączone w pod-TPU superkomputer ML o mocy 11,5 petaflopa. |
Ważne, by produkty były dostępne dla każdego, a nie tylko użytkowników produktów Google. Właśnie dlatego stworzono inicjatywę Google.ai, która skupia wszystkie działania Google związane ze sztuczną inteligencją w jednym miejscu, co pozwoli znieść przynajmniej część tych barier i przyspieszyć pracę naukowców, programistów i firm w dziedzinie AI (sztucznej inteligencji).
Jednym ze sposobów, który może pomóc w dostępności AI jest uproszczenie procesu tworzenia modeli uczenia maszynowego, zwanego sieciami neuronowymi. Dzisiaj projektowanie sieci neuronowych jest niezwykle czasochłonne i wymaga fachowej wiedzy, która ogranicza jej wykorzystanie do mniejszej społeczności naukowców i inżynierów. Właśnie dlatego stworzono AutoML, rozwiązanie pokazujące, że sieci neuronowe mogą zostać zaprojektowane przez inne sieci neuronowe. Mamy nadzieję, że AutoML będzie potrafiło to, co dzisiaj potrafi zaledwie kilku doktorów nauk i w ciągu trzech do pięciu lat umożliwi setkom tysięcy deweloperów na projektowanie sieci neuronowych dla swoich potrzeb.
Ponadto, Google.ai, łączy naukowców Google z zewnętrznymi naukowcami i programistami, by rozwiązywać problemy z różnorodnych dyscyplin, co przynosi obiecujące rezultaty. Użyliśmy uczenia maszynowego do poprawy algorytmu, który wykrywa rozprzestrzenianie się raka piersi do sąsiadujących węzłów chłonnych.
![]() |
|
Nowa funkcja wyszukiwarki, która niezależnie od tego, kim jesteś i jakiego rodzaju pracy szukasz, pomoże znaleźć ogłoszenia odpowiednie dla Ciebie.
Google zachęca też do przeczytania na temat wielu innych nowości ogłoszonych na Google I/O – włączając w to Androida, Zdjęcia i VR.
źródło: Google – Sundar Pichai, CEO
Kan
Android O
Wśród uaktualnień w tegorocznej edycji Androida znalazły się: większa kontrola użytkownika nad powiadomieniami, limity dla aplikacji działających w tle (w celu zmniejszenia zużycia baterii), tryb „obrazu w obrazie” umożliwiający np. oglądanie wideo przy korzystaniu z innej aplikacji oraz wsparcie dla wysokiej jakości kodeków audio Bluetooth. Znacznie łatwiej będzie w Androidzie O pracować z tekstem. Kolejna ważna rzecz to Notification Dots, kropki powiadomień, które mają rozszerzyć sposób informowania o aktywności aplikacji – długim przyciśnięciem ikony możemy wyświetlić dodatkowe informacje o jej stanie i powiązanych powiadomieniach.
Wszystko to nas otacza, a gdzie prywatność?