Google работал над «новым языком взаимодействия» в течение многих лет, и сегодня он делится своим результатом. Компания демонстрирует набор движений, определенных в своем новом языке взаимодействия, в первом эпизоде новой серии под названием «В лаборатории с Google ATAP» . Эта аббревиатура расшифровывается как Advanced Technology and Projects, и это более экспериментальное подразделение Google, которое компания называет своей «студией аппаратных изобретений» .
Идея этого «языка взаимодействия» заключается в том, что машины вокруг нас могут быть более интуитивными и восприимчивыми к нашему желанию взаимодействовать с ними, лучше понимая наши невербальные сигналы. «Устройства, которые нас окружают, должны быть в одной тарелке», — сказала старший дизайнер взаимодействия в ATAP Лорен Бедал. В частности ATAP анализирует наши движения (в отличие от голосовых команд или выражений лица), чтобы увидеть, готовы ли мы к взаимодействию, чтобы устройства знали, когда оставаться в фоновом режиме, а не закидывать нас информацией. Команда использовала радарный датчик Soli, чтобы определить близость, направление и пути людей вокруг него. Затем он проанализировал эти данные, чтобы определить, смотрит ли кто-то на датчик, проходит ли мимо, приближается или поворачивается к нему. Google формализовал этот набор из четырех движений, назвав их подходом, взглядом, поворотом и пасом. Эти действия можно использовать в качестве триггеров для команд или реакций на такие вещи, как интеллектуальные дисплеи или другие типы компьютеров. Например, в Pixel 4 была функция Motion Sense, которая откладывала будильник, когда вы махали ему рукой, или включала дисплей телефона, если он обнаруживал, что ваша рука приближается к нему. Nest Hub Max от Google использовал свою камеру, чтобы видеть, когда вы подняли открытую ладонь, и в ответ приостанавливал воспроизведение мультимедиа.