В российской прессе в последние дни появились новости о «вышедшем из-под контроля» искусственном интеллекте Facebook. Заголовки были такими:
Похожие статьи можно найти и в англоязычной прессе.
Хотя СМИ и рисуют картину приближающегося апокалипсиса, в действительности, все прозаичнее. В компании Facebook исследователи учатся создавать ботов, которые смогут обсуждать с людьми проблемы и приходить к компромиссу. Для этого в компании обучили ботов вести переговоры на основе базы данных с переговорами людей.
Одним из заданий для ботов было договариваться между собой о том, как поделить книги, мячи и шляпы.Иногда между ними случались диалоги, которые люди понять не могли. Например, агенты могли общаться так:
Боб: Я могу я я все остальное
Алиса: мячи ноль для меня для меня для меня для меня для меня для меня для меня для
Боб: ты я все остальное
Алиса: Мячи иметь мяч для меня для меня для меня для меня для меня для меня для меня для меня
Здесь человек говорит с ботом
Из-за таких непонятных для людей диалогов и появились заголовки о придуманном языке и вышедшем из-под контроля искусственном интеллекте. Причем, если в российской прессе про это стали писать в конце июля, то первая заметка в англоязычном интернете вышла в середине месяца, а об эксперименте с переговорами Facebook отчитывался еще в июне.
На самом деле исследователи сразу поняли, почему боты общаются непонятно. Как выяснилось, программисты забыли поощрять искусственный интеллект за то, чтобы он выражался на приемлемом английском. В итоге со временем боты просто создавали удобные для них сокращения, как это делают и люди (например, с аббревиатурами).
Facebook действительно прекратил общение двух ботов, но не потому что там испугались, как говорилось в заголовках. Как пояснил один из участников эксперимента, конечная цель — научить ботов общаться с человеком, а не между собой.