Компания Venture Capital Loup Ventures недавно провела тестирование трех основных виртуальных цифровых помощников. Google Assistant, Alexa Амазонки и Siri от Apple были даны 800 одинаковых вопросов и задач.

Каждому из трех цифровых помощников задавались вопросы, разбитые на пять различных категорий: местный, коммерция, навигация, информация и командование. Помощник Google понял все 800 заданных вопросов и правильно ответил на 93% из них. Сири поняла 99,8% вопросов и правильно ответила в 83,1% случаев. Алекса почти соответствовала идеальному пониманию Google Assistant с показателем 99,9%, но показала наихудшее с точки зрения точности с результатом 79,8%.

Все три цифровых помощника улучшились по сравнению с результатами, полученными в прошлом году, когда Google Assistant ответил на 86% правильных вопросов, Siri был прав в 79% случаев, а Alexa ответила правильно в 61% случаев. Отчет, написанный аналитиками Джином Манстером и Уиллом Томпсоном, отмечает важный фактор. Прошлогодний тест измерял реакцию цифровых помощников на смартфоне, а не на умном динамике. Это важно, потому что отсутствие экрана может изменить отклик динамика в отличие от телефона. Поскольку этот тест проводился с использованием телефонов, вопросы были короче, а использование экрана позволяло цифровым помощникам отвечать на некоторые вопросы без устного объявления ответа.