Najbardziej skomplikowane problemy to zazwyczaj te, które dotyczą codziennego życia. Właśnie Google osiągnęło liczbę 2 miliardów użytkowników Androida, YouTube ma nie tylko miliard użytkowników, ale także jest na nim oglądane miliard godzin wideo każdego dnia, użytkownicy używają Map Google do wyznaczania 1 mld km tras dziennie. Ten wzrost byłby nie do pomyślenia bez przejścia komputeryzacji w erę urządzeń mobilnych, nowego modelu interakcji, takich jak ekrany dotykowe. Jesteśmy świadkami kolejnej zmiany w komputeryzacji, przejście od świata mobile first do AI first. Wystarczy pomyśleć o wyszukiwarce Google: została zbudowana dzięki możliwości rozumienia stron internetowych. Jednak teraz, dzięki postępom w dziedzinie sztucznej inteligencji i uczeniu maszynowemu, jesteśmy w stanie uczynić obrazy, zdjęcia, wideo i mowę przydatnymi, co nie było osiągalne wcześniej. Twój aparat może „widzieć”, możesz mówić do swojego telefonu i uzyskać odpowiedzi – mowa i widzenie stają się tak samo ważne jak klawiatury czy ekrany dotykowe.


Asystent jest najlepszym przykładem tego postępu. Dostępny jest już na 100 mln urządzeń i staje się każdego dnia coraz bardziej przydatny.


Możemy teraz rozróżnić różne głosy w Google Home, dając użytkownikom bardziej spersonalizowane doświadczenie korzystania z urządzenia. Dziś, jesteśmy także w stanie uczynić aparat w telefonie, narzędziem, które pomoże wykonywać zadania. Google Lens to zestaw możliwości przetwarzania informacji wizualnych, które pozwolą zrozumieć to na co patrzysz i pomogą podjąć działanie w oparciu o te informacje. Jeśli przedzierałeś się pod biurkiem kolegi by zobaczyć długie, skomplikowane hasło do Wi-Fi naklejone z tyłu routera, to teraz telefon może rozpoznać to hasło, stwierdzić, że próbujesz zalogować się do sieci i automatycznie cię zalogować. Najważniejsze, że nie musisz uczyć się czegoś nowego – interfejs i Twoje doświadczenie mogą być znacznie bardziej intuicyjne niż np. kopiowanie i wklejanie w aplikacjach na smartfonie.

Na początku Google wprowadza funkcje Google Lens w Asystencie i Zdjęciach Google, możecie się spodziewać jej także niebawem w kolejnych produktach.

Dzięki Google Lens aparat smartfona nie tylko zobaczy to, co widzisz, ale także zrozumie, czego szukasz i pomoże Ci podjąć działanie.

Wszystko to wymaga odpowiedniej architektury obliczeniowej. W zeszłym roku Google ogłosił pierwszą generację TPU, które pozwalają na szybsze i sprawniejsze działanie algorytmów uczenia maszynowego. Dzisiaj zapowiedział następną generację TPU – Cloud TPU, które są zoptymalizowane zarówno dla interferencji jak i treningu i potrafią przetwarzać bardzo dużo informacji. Aby firmy i programiści mogli korzystać z tych rozwiązań, wprowadzamy Google Cloud TPU do Google Compute Engine.

Cloud-TPU są specjalnie skonstruowane do uczenia maszynowego; 64 z tych urządzeń może zostać połączone w pod-TPU superkomputer ML o mocy 11,5 petaflopa.

Ważne, by produkty były dostępne dla każdego, a nie tylko użytkowników produktów Google. Właśnie dlatego stworzono inicjatywę Google.ai, która skupia wszystkie działania Google związane ze sztuczną inteligencją w jednym miejscu, co pozwoli znieść przynajmniej część tych barier i przyspieszyć pracę naukowców, programistów i firm w dziedzinie AI (sztucznej inteligencji).

Jednym ze sposobów, który może pomóc w dostępności AI jest uproszczenie procesu tworzenia modeli uczenia maszynowego, zwanego sieciami neuronowymi. Dzisiaj projektowanie sieci neuronowych jest niezwykle czasochłonne i wymaga fachowej wiedzy, która ogranicza jej wykorzystanie do mniejszej społeczności naukowców i inżynierów. Właśnie dlatego stworzono AutoML, rozwiązanie pokazujące, że sieci neuronowe mogą zostać zaprojektowane przez inne sieci neuronowe. Mamy nadzieję, że AutoML będzie potrafiło to, co dzisiaj potrafi zaledwie kilku doktorów nauk i w ciągu trzech do pięciu lat umożliwi setkom tysięcy deweloperów na projektowanie sieci neuronowych dla swoich potrzeb.

Ponadto, Google.ai, łączy naukowców Google z zewnętrznymi naukowcami i programistami, by rozwiązywać problemy z różnorodnych dyscyplin, co przynosi obiecujące rezultaty. Użyliśmy uczenia maszynowego do poprawy algorytmu, który wykrywa rozprzestrzenianie się raka piersi do sąsiadujących węzłów chłonnych.



Nowa funkcja wyszukiwarki, która niezależnie od tego, kim jesteś i jakiego rodzaju pracy szukasz, pomoże znaleźć ogłoszenia odpowiednie dla Ciebie.

Google zachęca też do przeczytania na temat wielu innych nowości ogłoszonych na Google I/O – włączając w to Androida, Zdjęcia i VR.

źródło: Google – Sundar Pichai, CEO

Kan

Android O

Wśród uaktualnień w tegorocznej edycji Androida znalazły się: większa kontrola użytkownika nad powiadomieniami, limity dla aplikacji działających w tle (w celu zmniejszenia zużycia baterii), tryb „obrazu w obrazie” umożliwiający np. oglądanie wideo przy korzystaniu z innej aplikacji oraz wsparcie dla wysokiej jakości kodeków audio Bluetooth. Znacznie łatwiej będzie w Androidzie O pracować z tekstem. Kolejna ważna rzecz to Notification Dots, kropki powiadomień, które mają rozszerzyć sposób informowania o aktywności aplikacji – długim przyciśnięciem ikony możemy wyświetlić dodatkowe informacje o jej stanie i powiązanych powiadomieniach.