Miliardy użytkowników każdego dnia korzystają z wyszukiwarki Google. Gigant z Mountain View nieustannie dopracowuje i wzbogaca o kolejne funkcje narzędzia do przeczesywania internetu, które ułatwiają szukanie i odkrywanie nowych rzeczy. Dziś zapowiedziano nowe opcje, które do tej pory nie były dostępne.
Google jeszcze szybciej znajdzie to, czego szukasz
Każdego roku użytkownicy na całym świecie szukają bilionów haseł, z czego setki milionów razy z wykorzystaniem funkcji wyszukiwania głosowego (w Indiach 30% wyszukiwań odbywa się z użyciem właśnie tej metody). Google nie chce jednak, aby szukali oni interesujących rzeczy „maszynowo”, wpisując w okno jedynie słowa kluczowe – gigant z Moutain View chce, żeby wyszukiwanie było bardziej naturalne, intuicyjne. Z pomocą przychodzi tutaj sztuczna inteligencja i uczenie maszynowe oraz doświadczenie, dzięki czemu Google znajdzie odpowiedź nawet na pytanie: hollywoodzki film o psie i dziadku oparty na japońskim filmie sprzed 10 lat (odpowiedź to Mój przyjaciel Hachiko).
Użytkownicy mogą również szukać odpowiedzi na swoje pytania z wykorzystaniem Obiektywu Google. I robią to bardzo chętnie, gdyż aktualnie miesięcznie narzędzie to wykorzystywane jest 8 mld razy (blisko trzy razy częściej niż jeszcze w zeszłym roku). Niedługo popularność Obiektywu z pewnością jeszcze bardziej się zwiększy, ponieważ dziś zapowiedziano ulepszenie funkcji multiwyszukiwania.
Nowe narzędzie zostało nazwane „multiwyszukiwanie blisko mnie” – wystarczy zrobić zdjęcie lub dłużej przytrzymać na widzianej na ekranie smartfona rzeczy w internecie, a po chwili można znaleźć taką samą lub podobną w lokalnych sklepach.
Jako przykład Google podało smakowicie wyglądającą potrawę z menu restauracji. Funkcja „multiwyszukiwanie blisko mnie” pozwoli znaleźć restauracje w pobliżu, które serwują takie danie. W tym celu wykorzystywane są dane z internetu – miliony zdjęć, postów i recenzji dodanych przez użytkowników, aby zlokalizować miejsca, gdzie można zjeść coś takiego.
Funkcja multiwyszukiwania blisko użytkownika będzie dostępna globalnie w języku angielskim jeszcze w tym roku, a wsparcie dla kolejnych języków zostanie dodane „z czasem”.
Google przedstawiło również przyszłość multiwyszukiwania, którą nazywa „eksploracją sceny”. Dzięki tej technologii użytkownik będzie mógł przesuwać aparat smartfona po różnych rzeczach i w czasie rzeczywistym otrzymywać informacje na ich temat.
A skoro już o szukaniu mowa, to przy okazji Google przypomniało również, że YouTube automatycznie generuje rozdziały w filmach – do tej pory udało się to zrobić w 8 mln filmów, ale celem jest 80 mln do następnego roku. Ponadto poinformowano, że od teraz funkcja transkrypcji wideo jest dostępna dla wszystkich użytkowników Androida i iOS. Do tego wprowadzone zostało automatyczne tłumaczenie transkrypcji na urządzeniach mobilnych (aktualnie dostępne w 16 językach, wkrótce również ukraińskim).