Робот впервые обыграл киберспортсменов в StarCraft II

Автор: Павел

После того, как искусственный интеллект британской компании DeepMind, принадлежащей Google, смог победить лучших игроков в Го, было принято решение переквалифицировать ИИ для игры в StarCraft II. Вскоре после этого были проведены первые поединки с профессиональными геймерами, которые за свою карьеру победили в десятках разнообразных турниров и одолели самых опытных оппонентов в данной дисциплине. Искусственный интеллект назвали AlphaStar, а сражаться ему нужно было против TLO и MaNa — профессиональных киберспортсменов. Удивительно, но AlphaStar без каких-либо трудностей одержал десять побед к ряду.

DeepMind

Только после десяти поражений игрок под ником МаНа смог одолеть «компьютер». Вероятно, киберспортсмен решил использовать нестандартную стратегию и обманул искусственный интеллект. Стоит также отметить, что игрок под ником TLO незадолго до сражения во время своей прямой трансляции заявил, что он уверен в своей победе над искусственным интеллектом. Однако, AlphaStar победил геймера пять раундов подряд и каждый раз демонстрировал совершенно уникальную стратегию, разбивая врага в пух и прах.

Нужно понимать, что у искусственного интеллекта было два ключевых преимущества во время сражений с TLO. Во-первых, в бою ИИ использовал протоссов (класс юнитов в StarCraft), которые являются весьма неудобными для противника. Во-вторых, что даже более важно, AlphaStar видит игру немного не так, как обычный геймер. Игроку нужно постоянно двигать карту, чтобы изучать свою базу и остальные локации, тогда как компьютер контролирует сразу всю видимую область. Это позволяет существенно экономить время и мгновенно получать информацию о разных частях карты. Даже самому быстрому игроку для этого нужно дополнительное время.

DeepMind

Тем не менее, AlphaStar не использовал те преимущества, которые есть у ИИ и недоступны обычному человеку. Например, пока TLO и MaNa полностью использовали свой потенциал, искусственный интеллект выполнял меньше действий в минуту и был ограничен скоростью реакции в 350 миллисекунд. Среднестатистический профессиональный игрок реагирует быстрее. AlphaStar не торопился и принимал более разумные и эффективные решения исходя из своего опыта, что и позволило одержать верх над оппонентом. Страшно даже представить судьбу геймеров в том случае, если бы AlphaStar не был ограничен по скорости реакции.

DeepMind

Для обучения AlphaStar сотрудники компании DeepMind использовали записи игр профессиональных игроков — программа «просматривала» сражения, после чего запоминала успешные решения и глобальные тактики. Всего на обучение ИИ ушло две недели, что эквивалентно 200 годам игры в StarCraft II. Если разработчики продолжат в том же духе, то киберспортсменов ждёт очень грустное будущее.

Источник: Trashbox.ru

Популярное за неделю

Vegebot

Британские инженеры создали робота для сбора урожая салата

Инженеры из Кембриджского университета создали робота, способного автономно собирать салат айсберг. Система распознавания устройства определяет созревший и пригодный для приема в пищу салат даже...
637
Pixelbook Go

Google Pixelbook Go “слили” в Сеть до официальной презентации

Презентация новых аппаратных продуктов Google должна состояться 15 октября, но в Сети уже появился видеообзор мобильного компьютера Google Pixelbook Go, и большое число его...
257
Pixel 3a

Бюджетный смартфон Google Pixel 3a показали на официальном фото

Известный своей исключительной достоверностью в вопросе утечек смартфонов, Эван Бласс (evleaks) опубликовал изображение Google Pixel 3a. Картинка подтверждает ранние утечки: дизайн спинки от старшей серии,...
171
Добавить комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Sorry that something went wrong, repeat again!