Myśl przewodnia Google I / O 2019: wszystko, co musisz wiedzieć!

Autor: Laura McKinney
Data Utworzenia: 10 Lang L: none (month-011) 2021
Data Aktualizacji: 1 Lipiec 2024
Anonim
GIEŁDA – GŁUPIE BŁĘDY POCZĄTKUJĄCYCH
Wideo: GIEŁDA – GŁUPIE BŁĘDY POCZĄTKUJĄCYCH

Zawartość



Google I / O 2019 nadchodzi, a jedno z najważniejszych wydarzeń jest pierwsze. Tegoroczna myśl przewodnia ma wiele obiecujących tematów, od nowego telefonu do następnej wersji beta Androida Q i wielu innych rzeczy. Będziemy oglądać na żywo za pomocą powyższego filmu i aktualizować ten artykuł w miarę postępu dyskusji.

Ponadto spodziewamy się, że zobaczymy kilka rzeczy na temat aplikacji i gier oraz produktów Google Home. Na podłodze mamy także Erica Zemena, Davida Imela i Justina Duino, aby zapewnić jeszcze więcej zasięgu Google I / O 2019 w ciągu najbliższych kilku dni.

Transmisja na żywo

Możesz obejrzeć transmisję na żywo z powyższym filmem o 13:00 czasu wschodniego, gdy rozpocznie się wydarzenie. Oczekujemy, że link będzie nadal działał po zakończeniu wydarzenia. Poniżej zaktualizujemy artykuł, gdy będzie dostępnych więcej informacji.


Otwarcie Google I / O 2019

Otwieramy Google I / O 2019 z montażem obejmującym gry, rzeczywistość wirtualną, rzeczywistość rozszerzoną oraz niektóre Star Trek i Night Rider. Sundar Pichai wchodzi na scenę, aby rozpocząć prezentację, opowiadając o tym, co Google robił w ciągu ostatnich kilku tygodni, i żartuje z nadchodzącego meczu piłki nożnej w Liverpoolu. Mówi o tegorocznej aplikacji I / O, która wykorzystuje rozszerzoną rzeczywistość, aby pomóc odwiedzającym w poruszaniu się po tym roku. To także nowa funkcja w Mapach Google.

Pichai mówi krótko o wszystkich przydatnych usługach Google, w tym Zdjęciach Google, Mapach Google i Asystencie Google. Mówi dalej o produktach, z których miliardy ludzi korzystają na całym świecie, ze szczególnym naciskiem na wyszukiwarkę Google i Google News. Funkcja pełnego pokrycia w Google News zmierza również do wyszukiwarki Google, w tym pełna oś czasu wydarzeń i wiadomości z różnych źródeł. Google wprowadza także indeksowanie podcastów do wyszukiwarki Google i możesz słuchać bezpośrednio z wyników wyszukiwania Google.


Aparna Chennapragada, wyszukiwarka Google, kamera i rzeczywistość rozszerzona

Przeczytaj nasze omówienie modeli rzeczywistości rozszerzonej pojawiających się w wyszukiwarce Google!

Aparna wchodzi na scenę, aby porozmawiać o rozszerzonej rzeczywistości i kamerze w wyszukiwarce Google. Pierwsza nowa funkcja wyszukiwania pozwala zobaczyć modele 3D bezpośrednio z wyszukiwarki Google i użyć rzeczywistości rozszerzonej, aby umieścić te obiekty w aplikacji aparatu. Możesz nawet zrobić porządne rzeczy, takie jak poszukiwanie butów i zobaczyć, jak to pasuje do twojego stroju. Na koniec zobacz modele 3D w aplikacji aparatu i wydaje się, że skaluje się do rozmiaru w zależności od wszystkiego, co jest w aplikacji aparatu. Demo pokazało wielkiego białego rekina na scenie i jest bardzo imponujące.

W przyszłym roku Google łączy rzeczywistość rozszerzoną z aparatem i wyszukiwarką.

Aparna przechodzi do Google Lens, dostępnego obecnie na większości nowszych telefonów z Androidem. Został on wbudowany w Zdjęcia Google, Asystenta i Aparat. Już ponad miliard osób używało obiektywu. Obiektyw ma teraz możliwość natywnej pracy z aparatem i wyróżniania w menu takich popularnych potraw, że użytkownik nic nie robi z danymi z Map Google. Obiektyw może również obliczać napiwki i sumy wpływów z restauracji w czasie rzeczywistym z aplikacji aparatu bez większego wkładu użytkownika. Google współpracuje z wieloma firmami, aby poprawić te wrażenia wizualne.

Wreszcie, Google integruje Tłumacz Google i aparat z paskiem wyszukiwania Google, aby odczytywać na głos znaki w swoim ojczystym języku lub tłumaczyć w czasie rzeczywistym, tak jak to już można zrobić w aplikacji Tłumacz Google. Aparna wrzuca go do klipu wideo z Indianką, która nigdy nie miała odpowiedniego wykształcenia, używając aplikacji do normalnego życia. Ta nowa funkcja działa na telefonach, które kosztują zaledwie 35 USD i zużywa bardzo mało miejsca, aby umożliwić dostęp do jak największej liczby miejsc.

Pichai wraca na scenę

Przeczytaj więcej o Google Duplex w Internecie tutaj!

Sundar ponownie wchodzi na scenę i zaczyna rozmawiać o Google Duplex oraz wyszukiwarce Google w zakresie dokonywania rezerwacji. Możesz poprosić Asystenta o dokonanie rezerwacji dla ciebie i cóż, robi to. Demo na scenie było bardzo imponujące. Działa to z Kalendarzem, Gmailem, Asystentem i innymi. Ta nowa funkcja nazywa się Duplex w Internecie, a Google będzie mieć więcej informacji na jej temat w tym roku.

Sundar ogłosił również, że modele głosowe Google wzrosły ze 100 GB do 0,5 GB, dzięki czemu są wystarczająco małe, aby przechowywać je bezpośrednio w telefonie. To powinno przyspieszyć działanie Asystenta. Pichai rzuca to Scottowi Huffmanowi po więcej.

Scott Huffman, Asystent Google i modele głosowe

Asystent Google będzie wkrótce dziesięć razy szybszy!

Scott wychodzi i mówi o tym, by Asystent Google był szybszy niż kiedykolwiek. Inny Googler, Maggie, wydaje kilka dobrych tuzinów poleceń, a Asystent obsługuje je wszystkie z aplauzem, aby pokazać, o ile szybciej może uzyskać Asystent. Następnie demonstruje pracę Asystenta Google bez użycia tego słowa i używa swojego głosu, aby odpowiedzieć na tekst, znaleźć zdjęcie zwierzęcia w Yellowstone i odesłać to zdjęcie z powrotem do swojego tekstu. Korzysta z Asystenta, aby znaleźć czas lotu i przesłać te informacje również SMS-em. Wszystko zostało zrobione głosem bez wprowadzania dotykowego. Imponujące jest obserwowanie, jak Asystent rozumie, kiedy Maggie dyktuje i kiedy wzywa Google do wykonania polecenia.

Asystent Google będzie o wiele szybszy, łatwiejszy w użyciu i bardziej wydajny.

Scott ogłosił również Picks for you, nową funkcję Google Home, która próbuje spersonalizować wyniki na podstawie rzeczy, które Asystent pomógł ci wcześniej. Obejmuje to między innymi wskazówki, przepisy kulinarne i inne obszary, w których wyniki mogą się różnić z powodu osobistych preferencji. Google nazywa te osobiste referencje. Możesz zapytać Google, jaka jest pogoda w domu twojej mamy, a Google będzie wiedział, co masz na myśli, ruch między tobą a tym miejscem oraz jaka jest pogoda w domu twojej mamy. Google Assistant po prostu go zdobędzie.

Wreszcie Scott wprowadza ulepszenia w produktach Google w samochodzie, w tym proste polecenia dotyczące muzyki, map i innych. Och, a Asystent w Google Homes może teraz zatrzymać alarmy za pomocą prostej komendy, aby zatrzymać. Scott kończy swój segment zabawnym klipem wideo przedstawiającym montaż z użyciem Asystenta Google.

Sundar powraca ponownie!

Sundar powraca i potwierdza cel Google, aby zbudować bardziej pomocnego Google dla wszystkich. Mówi także o uczeniu maszynowym i sztucznej inteligencji, skupiając się na tym, by nie były stronnicze jak ludzie. Google pracuje nad nowym modelem uczenia maszynowego o nazwie TCAV, aby pokazać, czego AI używa w swoich ustaleniach. Google chce tego użyć, aby usunąć uprzedzenia i pomóc ludziom podczas korzystania z technologii AI.

Pichai przechodzi na bezpieczeństwo użytkowników dzięki osi czasu funkcji prywatności i bezpieczeństwa Google, w tym trybu incognito i wielu innych ulepszeń na przestrzeni lat. Wkrótce dostęp do ustawień zabezpieczeń będzie jeszcze łatwiejszy za pośrednictwem Google Chrome dzięki zdjęciu profilowemu w prawym górnym rogu. Nowa funkcja, która zostanie uruchomiona dzisiaj (7 maja 2019 r.), Pozwoli Ci usuwać stare dane, które Google zbiera na bieżąco. Ponadto tryb incognito wkrótce będzie dostępny w Mapach, dzięki czemu będziesz mógł wyszukiwać rzeczy bez zapisywania ich na koncie. Klucz prywatności to kolejna funkcja wprowadzona dziś przez Google.

Google w dalszym ciągu ulepsza funkcje bezpieczeństwa i prywatności, zapewniając łatwiejszy dostęp.

Federated Learning to kolejna nowa rzecz, którą Google robi. Pozwala Google dowiedzieć się, co zrobiłeś, przesłać go na serwery Google, połączyć ze wszystkimi innymi, a następnie ponownie pobrać nowy model dla inteligentniejszych produktów. Pichai wykorzystał Gboard jako przykład. Google koncentruje się również na ułatwieniach dostępu osobom niepełnosprawnym. Pichai mówi o Live Transcribe i innych aplikacjach ułatwiających dostęp w ciągu ostatnich kilku miesięcy.

Live Caption to kolejna nowa aplikacja do podpisywania rzeczy dla osób niepełnosprawnych. Google chce połączyć całą tę technologię w Duplex, Smart Reply i Smart Compose, aby pomóc osobom niesłyszącym i wyciszonym uczynić funkcjonalne rozmowy telefoniczne jeszcze łatwiejszymi dzięki nowej funkcji o nazwie Live Relay. To wszystko jest częścią rzeczy, nad którą Google pracuje, zwanej Project Euphonia. Sundar kończy tę część prezentacji, pokazując, w jaki sposób Google tworzy modele mowy dla tych, którzy nie potrafią dobrze mówić z powodu głuchoty, udaru mózgu lub innych problemów.

Stephanie Cuthbertson, Android, innowacja mobilnego systemu operacyjnego

Stephanie rozpoczyna swoją prezentację mówiąc, że obecnie działa na niej ponad 2,5 miliarda urządzeń z Androidem. Potem mówi o składanych telefonach. Android Q będzie natywnie obsługiwał składane elementy, aby pomóc producentom OEM tworzyć lepsze. Obejmuje to ciągłość aplikacji, funkcję Samsung Galaxy Fold. Android Q będzie również natywnie obsługiwał 5G. Stephanie zabiera Tristana na scenę, aby porozmawiać o Live Caption działającym na Androidzie Q. Demonstruje podpis na żywo i działa całkiem dobrze. Zrobił to w trybie samolotowym, aby pokazać, że jest wykonalny offline. Cały model mowy na żywo działa na urządzeniu z zaledwie 80 MB, w porównaniu z 2 GB.

Stephanie mówi o Smart Reply, starszej funkcji z nowymi sztuczkami w Androidzie Q. Działa teraz we wszystkich aplikacjach do przesyłania wiadomości w Androidzie. Dostajesz również działania, aby zaoszczędzić więcej czasu. Nareszcie wreszcie pojawi się pełny, prawdziwy tryb ciemności na Androida Q! To prawdziwy czarny motyw dla was, ludzie OLED, przynajmniej według zrzutów ekranu. Jednak głównym celem Androida Q jest bezpieczeństwo i prywatność. Stephanie skromne torby, które Android uzyskał najwyższe wyniki w 26 z 30 testów pod kątem ochrony przed złośliwym oprogramowaniem i bezpieczeństwa.

Android Q zawiera całe menu ustawień zapewniające prywatność. To pozwala kontrolować te rzeczy o wiele łatwiej w telefonie. System Android Q ostrzega również, gdy aplikacje używają uprawnień do lokalizacji i jak udostępniasz dane o lokalizacji. Kolejną nową funkcją jest możliwość stosowania aktualizacji zabezpieczeń bez ponownego uruchamiania urządzenia. Powinno to działać dokładnie tak, jak aktualizacja aplikacji. To bardzo ekscytujące dla producentów OEM, którzy często nie wysyłają aktualizacji zabezpieczeń.

Stephanie odwraca się od rozproszenia. Nową funkcją w Androidzie jest tryb ostrości. Możesz wyłączyć rozpraszające uwagę aplikacje, które nie będą wysyłały powiadomienia. Będzie to również dostępne na Android Pie tej jesieni. Ponadto Android Q ma kontrolę rodzimej rodziny, w tym Family Link. Family Link pozwala ustawić dzienne limity czasu na ekranie, zatwierdzić instalacje aplikacji, a nawet ustawić godziny spania. Wersja beta jest dostępna na 21 urządzeniach, w tym na wszystkich pikselach.

Rick Osterloh, AI, oprogramowanie i sprzęt

Rick wchodzi na scenę, aby porozmawiać o bardziej przyjaznych dla programistów tematach. Prezentację rozpoczyna od klipu wideo o Google Home. Rick mówi o połączeniu wszystkich produktów domowych pod nazwą Nest. Obejmuje wszystkie aktualne produkty Nest wraz z wieloma dodatkami do domu. Rick ogłasza Nest Hub, a także Nest Hub Max. Kamera na tych urządzeniach może być używana jako kamera bezpieczeństwa, taka jak Nest Cam. Można go również używać z Google Duo.

Aparat ma również zielone światło kontrolne, a także przełącznik z tyłu urządzenia, który płasko wyłącza aparat dla bezpieczeństwa i prywatności. Będziemy mieć więcej szczegółowych informacji na temat tych urządzeń. Urządzenia te wykorzystują uczenie maszynowe do identyfikowania gestów dłoni w celu uzyskania dodatkowych funkcji sterowania, takich jak LG G8. Urządzenia te będą dostępne latem. Nest Hub będzie również dostępny w 12 nowych regionach. Sprawdź nasze praktyczne ćwiczenia z Nest Hub Max tutaj!

Sabrina Ellis, Pixel 3A i 3A XL

Rick przekazuje Sabrinie Ellis rozmowę o dwóch nowych urządzeniach Pixel. Pixel 3A i 3A XL zaczynają się już od 399 USD. Występują w trzech kolorach, w tym nowym, fioletowym. Urządzenia te są również wyposażone w gniazdo słuchawkowe 3,5 mm. Sabrina żartuje, że nowy Pixel 3a może dostarczać wysokiej jakości zdjęcia bez drogiego sprzętu. Zasadniczo jest tak, jak droższe piksele, tylko z mniej wydajnym procesorem.

Od dziś urządzenia Pixel będą mogły korzystać z nowego trybu AR w Mapach Google. Sabrina obraca się i mówi o wszystkich funkcjach Androida Pie, Android Q i Pixel, które mają także Pixel 3A i 3A XL. Będą również dostępne w różnych krajach i nie będą wyłącznymi produktami Verizon w Stanach Zjednoczonych. Są one dostępne od dziś. Brakuje im jednak bezpłatnego maksymalnego rozszerzenia przestrzeni dyskowej dla Zdjęć Google. Użytkownicy są ograniczeni do wersji wysokiej jakości, którą otrzymują wszyscy inni.

Jeff Dean, AI (ponownie)

Jeff wychodzi na scenę, aby mówić o sztucznej inteligencji. Ta część przewodnika jest nieco bardziej techniczna, mówiąc o płynności językowej komputerów. Obejmuje to dwukierunkowe reprezentacje koderów z transformatorów (BERT) lub zdolność komputerów do zrozumienia kontekstu słów. Trenują model przy użyciu zabawnej, zaawansowanej technologicznie wersji szalonych bibliotek. Następnie Jeff mówi o TensorFlow i aktualizacjach platformy w ciągu ostatniego roku. Rzuca to Lily Peng, aby uzyskać więcej informacji.

Lily Peng, technologia medyczna

Lily Peng zabiera głos na temat modelu uczenia maszynowego Google do zastosowań medycznych. Dotyczy to między innymi wzroku, cukrzycy, onkologii i innych. Mówi dalej o używaniu uczenia maszynowego do przeglądania skanów CT w celu lepszego wykrywania zmian złośliwych w raku płuca z zaskakująco dobrym sukcesem. Jednak jest na wczesnym etapie. Oddaje go Jeffowi.

Wróć do Jeffa po więcej sztucznej inteligencji i uczenia maszynowego

Jeff wraca na scenę, aby porozmawiać o badaniach, inżynierii i budowaniu ekosystemu. Mówi o modelach wykrywania powodzi io tym, jak pomoże to mieszkańcom Indii uniknąć powodzi w tym roku. To piękne połączenie tysięcy zdjęć satelitarnych, uczenia maszynowego, sieci neuronowych i fizyki. Google chce jeszcze bardziej ulepszyć te modele, aby upewnić się, że wszyscy wiedzą, kiedy miejsce zostanie zalane.

Google współpracuje z 20 organizacjami, aby rozwiązać niektóre z największych problemów na świecie. Obejmuje to obrazowanie przeciwdrobnoustrojowe, przyspieszenie czasu reakcji w sytuacjach awaryjnych oraz sieci monitorowania wysokiej rozdzielczości w celu poprawy jakości powietrza. Firmy te otrzymają również bezpłatne fundusze. Następnie Jeff zamyka propozycję Google I / O 2019 kilkoma inspirującymi słowami na temat następnej dekady.

Zakończyć

Jaka była twoja ulubiona część tegorocznej prezentacji Google I / O 2019? Powiedz nam w komentarzach! Sprawdź także nasz podcast na ten temat, link bezpośrednio powyżej lub jest on dostępny w twoim ulubionym podcatcherze!

Wczoraj Cloudflare opublikował woją długo oczekiwaną Warp VPN po mieiącach niepowodzeń. Po raz pierwzy ogłoił Warp w kwietniu i pozwolił ludziom zapiać ię na wczeny dotęp przed pełną werją planowaną n...

Maz pomył na bizne za milion dolarów? zane, że idziez potrzebujez aplikacji na Androida aby ten pomył wytartował. Możez pomyśleć, że zbudowanie jednego wymaga doświadczenia w programowaniu, ale t...

Popykany Dzisiaj.