Перейти к материалам
истории

Го-про Искусственный интеллект впервые одолел профессионального игрока в го: Wired

Источник: Wired
Фото: jvphoto / Alamy / Vida Press

Компьютерная программа впервые победила профессионального игрока в го — игру с тысячелетней историей, в которой до этого люди считались сильнее компьютеров. Программу AlphaGo, победившую чемпиона Европы по го, создали в компании Google DeepMind. Издание Wired рассказывает про первый случай в истории, когда искусственный интеллект оказался сильнее профессионала го. 

Игра го была придумана более двух с половиной тысяч лет назад и до сих пор это одна из самых популярных игр в мире — по ней регулярно проводятся чемпионаты . На первый взгляд она очень простая: есть поле из клеток и камни — черные и белые. Игроки должны захватить своими камнями как можно большую площадь на доске. Тем не менее, именно эта игра многие годы была неподвластна компьютеру. До недавнего времени искусственный интеллект не мог обыгрывать игроков высокого уровня — магистров.  

Трудность с го состоит в том, что на стандартной доске 19×19 клеток можно сделать 250 ходов. Каждый ход порождает еще 250 возможных ходов и так далее. В результате компьютер простым перебором просто не может просчитать комбинации на много ходов вперед. Когда Deep Blue победил Гарри Каспарова в 1997 году, он фактически действовал перебором — с го такой подход не проходит. Число возможных позиций в го больше, чем атомов во Вселенной (это число состоит из 171 цифры). Как объясняет Демис Хассабис из Google DeepMind, хорошие позиции в го просто выглядят хорошо. То есть игрок необязательно просчитывает все возможные комбинации, а действует скорее интуитивно. 

Демис Хассабис
Фото: Google DeepMind

Программы, работающие с помощью перебора, способны победить игрока среднего уровня, но с профессионалами они не справляются. В 2014 году компьютерная программа Crazystone, разработанная французом Реми Куломом, победила японца Норимото Ёду — игрока высочайшего уровня. Но компьютер играл с форой в четыре хода — это очень большое преимущество. Тогда Кулом говорил, что пройдет 10 лет, прежде чем искусственный интеллект сможет победить магистра го. 

DeepMind удалось совершить прорыв гораздо скорее. В октябре 2015 года состоялся поединок: противниками стали программа AlphaGo и чемпион Европы по го Фань Хуэй. Программа выиграла пять партий из пяти. Встреча прошла за закрытыми дверями в офисе DeepMind в Лондоне. На ней присутствовал корреспондент научного журнала Nature и представитель Британской федерации го. Nature 27 января опубликовал статью про тот матч, после чего о победе компьютера стало широко известно. 

Google DeepMind: Ground-breaking AlphaGo masters the game of Go
DeepMind

AlphaGo построена на принципе глубинного обучения, который, в свою очередь, включает использование нейронных сетей — некоего подобия компьютерной модели человеческого мозга (разумеется, не точной копией). Такие сети не работают методом перебора, вместо этого они анализируют данные и «учатся» выполнять определенную задачу, например, находить на фотографиях лица (это реализовано в фейсбуке). То есть если показать нейронной сети достаточное количество фотографий с лицами, она научится их находить. Тот же подход применили к го. 

Разработчики сначала «скормили» нейронной сети 30 миллионов ходов профессиональных игроков. Даже теоретически это могло научить программу играть лишь, как они, но не лучше. Чтобы научить программу побеждать людей, ее заставили играть саму с собой (на самом деле, нейронные сети играли с чуть измененной копией самих себя). Были сыграны миллионы партий: в результате AlphaGo научилась оценивать, какое положение камней на доске ей более выгодно. 

По словам Демиса Хассабиса из DeepMind, AlphaGo может работать даже на одном компьютере с достаточным количеством графических процессоров. Для поединка с Фань Хуэем использовалась сеть из компьютеров со 170 графическими процессорами и 1200 обычными. Графические процессоры лучше подходят для глубинного обучения.  

В середине марта программа AlphaGo впервые сыграет со звездой го на публике. Поединок состоится в Южной Корее. Противником искусственного интеллекта станет кореец Ли Седоль, который за свою карьеру выиграл более 800 турниров. У него второе место по числу выигранных титулов на международных турнирах. Демис Хассабис из DeepMind говорит, что Ли Седоль — это Роджер Федерер в мире го. Ради этого турнира DeepMind проложит свой собственный кабель, чтобы скорость интернета была достаточной для программы. 

Если искусственный интеллект DeepMind может понять, как играть в го, то почему он не сможет разобраться в чем-то более сложном? «Что если вся Вселенная — это просто гигантская игра в го», — задается вопросом профессор права из Университета Вашингтона Райан Кало.

Wired