Компьютер впервые в истории обыграл профессионального игрока в "Го" — древнюю интеллектуальную игру, чрезвычайно популярную в Японии, Китае и Корее. Достижение принадлежит программе AlphaGo — разработке лондонской компании DeepMind, которая 2 года назад была куплена Google за $400 млн. Фирма занимается исследованиями в области искусственного интеллекта.

Компьютер сумел победить трехкратного чемпиона Европы по "Го" Фань Хуэя (Fan Hui), обыграв его в 5 партиях из 5. До этого в соревнованиях с чемпионами машины добивались победы, лишь имея существенную фору с самого начала игры. До игры с Фань Хуэем AlphaGo также провела серию матчей в "Го" с другими компьютерными программами, уступив лишь в одном из 495 матчей. В марте 2016 года программа встретится с корейцем Ли Седолем (Lee Sedol), который считается лучшим игроком в "Го" в мире.

По словам специалистов, результат AlphaGo имеет важное значение в деле разработки искусственного интеллекта. AlphaGo не была запрограммирована лишь на перебор возможных ходов, в отличие от шахматной программы Deep Blue, которая в 1997 году впервые в истории обыграла мирового чемпиона Гарри Каспарова. Искусству игры в "Го" программа научилась, выявляя определенные закономерности в игре с помощью абстрактно-обучающего алгоритма.

В "Го" существует чрезвычайно большое количество возможных комбинаций фигурок (камней), расположенных на доске размером 19х19 клеток. По подсчетам математиков, число возможных комбинаций составляет 10 в степени 170 — это больше, чем количество всех атомов во Вселенной.

Для того чтобы научить программу играть в "Го", создателям пришлось провести большую подготовительную работу, связанную с нейронными сетями — математическими моделями, представляющими аппаратное воплощение устройства человеческого мозга. Нейронные сети искусственно моделируют нервные клетки мозга, нейроны, а также связи между ними, которые могут перестраиваться в процессе обучения программы. AlphaGo начала свое обучение с анализа 30 млн возможных позиций камней на доске, взятых из сыгранных партий, чтобы получить абстрактную информацию об игре в целом, подобно тому, как системы распознавания изображений учатся определять лица или другие объекты на фото по набору мельчайших точек — пикселей.

Затем AlphaGo играла в "Го" сама с собой на 50 компьютерах, совершенствуя собственные навыки с каждой новой партией — этот метод известен под названием "подкрепленное обучение". Благодаря этому программа научилась не только перебирать варианты будущих ходов на несколько шагов вперед, но и в целом анализировать положение камней на доске для выбора наилучшей стратегии.

По словам исследователей, непричастных к созданию AlphaGo, достижение создателей алгоритма, компании DeepMind, носит чрезвычайно важный характер, так как показывает возможности глубокого обучения для искусственного интеллекта на базе нейронных сетей. Этот подход, оказавшийся успешным для игры в "Го", может быть применен и в других сферах, где необходим анализ огромного количества информации для принятия важного и долгосрочного решения: формулировка диагноза и назначение лечения на основе медицинских снимков или моделирование климатических изменений на планете.

Помимо Google, созданием успешной программы для игры в "Го" с чемпионами также занимается другая IT-корпорация — Facebook. В день публикации результатов успеха AlphaGo Марк Цукерберг на своей страничке в социальной сети показал, как разработанная в его компании программа делает ходы в "Го", принимая решение всего за 0,1 секунды. "Наш искусственный интеллект соединяет поисковый подход, моделирующий каждый возможный ход в процессе игры, с системой выявления игровых схем, которую создала наша команда по компьютерному зрению", — рассказал главный конкурент Google в деле обучения компьютеров игре в "Го".