Гиперспособные ИИ уже много лет побеждают нас в наших же играх. Будь то Go или Jeopardy, Dota 2 или Nethack, искусственный интеллект регулярно доказывает, что превосходит конкурентов-людей, помогая продвигать не только игровое искусство, но и машинное обучение и вычислительную науку. В среду Sony объявила о своем последнем дополнении к этой области, GT Sophy, гонщике с искусственным интеллектом, способном сразиться и победить некоторых из лучших в мире игроков Gran Turismo. GT Sophy (GT означает «Gran Turismo») — результат сотрудничества Sony AI, Polyphony Digital (PDI) и Sony Interactive Entertainment (SIE), а также более полувека исследований и разработок.
«Gran Turismo Sophy — это важное достижение в области искусственного интеллекта, цель которого — не просто быть лучше, чем игроки-люди, но и предложить игрокам стимулирующего противника, который может ускорить и поднять технику и творческий потенциал игроков на новый уровень», — заявил генеральный директор Sony AI, Хироаки Китано. «Помимо вклада в игровое сообщество, мы считаем, что этот прорыв открывает новые возможности в таких областях, как автономные гонки, автономное вождение, высокоскоростная робототехника и управление». Используя в качестве нового метода глубокого обучения с подкреплением, исследовательская группа научила своего ИИ-бота управлять цифровым гоночным автомобилем в рамках игры GT, помогая Софи понять динамику и возможности автомобиля, а также гоночные тактики, такие как скользящее движение, обгон и блокирование.