Asystent Google jest już dość solidny, oferując kompleksową obsługę głosu i tekstu. Ale firma wyszukiwania stara się uczynić swojego wirtualnego asystenta jeszcze bardziej dostępnym dzięki funkcji Action Blocks.
W poście na blogu o tej funkcji Google zauważył, że istnieje ponad 600 milionów osób z niepełnosprawnością poznawczą. Oznacza to, że dla niektórych osób polecenia głosowe lub tekstowe mogą być niewykonalne.
Na szczęście Action Blocks pozwala użytkownikom dodawać określone polecenia Asystenta Google do ekranu głównego (wraz z niestandardowym obrazem). Po dodaniu do ekranu głównego pojedyncze dotknięcie zainicjuje dane polecenie. Jest to podobne do skrótów Tasker widocznych w aplikacji do automatyzacji Tasker.
Konkretne przykłady bloków akcji obejmują żądanie współdzielenia jazdy, udostępnianie lokalizacji na żywo, przełączanie inteligentnego światła i oglądanie ulubionego programu telewizyjnego. Sprawdź GIF poniżej, aby zobaczyć, jak to działa:
Bloki działania dla Asystenta Google wciąż znajdują się w fazie testowania, ale Google wzywa opiekunów i członków rodzin osób z zaburzeniami poznawczymi do przyłączenia się do programu testowania tutaj.
To nie jedyna funkcja ułatwień dostępu, nad którą Google pracuje od około roku. Firma wprowadziła również aplikację Live Transcribe (transkrybowanie dźwięków z otaczającego Cię świata), narzędzie Wzmacniacz dźwięku, i pracuje nad technologią Live Caption w Androidzie 10. Ta ostatnia funkcja wykorzystuje uczenie maszynowe na urządzeniu do generowania napisów dla lokalnych i podobne filmy internetowe.
Co jeszcze chciałbyś zobaczyć w Asystencie Google? Przekaż nam swoje uwagi poniżej!