Microsoft отключила бота для общения из-за его нацистских взглядов

Источник: Microsoft

Microsoft отключила бота для общения Tay, который за сутки в твиттере приобрел человеконенавистнические взгляды. Как пояснил вице-президент компании Питер Ли, это произошло из-за злоумышленнников, обнаруживших уязвимость в боте. Заново бота запустят, только когда он научится противостоять подобным атакам. 

Бот Tay, созданный для общения с молодежью от 19 до 24 лет, был запущен 23 марта. С ним можно было пообщаться на английском языке в том числе в Twitter. Сначала он писал, что «люди классные» и прочие милые вещи. Но вскоре программа приобрела совсем другие взгляды. 

Среди опубликованных им твитов оказались фразы в поддержку политики Адольфа Гитлера в отношении евреев, а также критические твиты в адрес феминисток. Некоторые сообщения были, впрочем, написаны по просьбе пользователей — они просили бота что-то повторить за ними, и тот соглашался. 

«Искусственный интеллект обучается как на позитивных, так и негативных примерах. Мы постараемся решить проблему защищенности бота с технической стороны, но каким образом люди будут взаимодействовать с ботом, предсказать невозможно», — написал Питер Ли.

Microsoft

В китайском интернете у Microsoft работает бот Xiaoice, который притворяется 19-летним подростком. Как писал один из исследователей компании, китайцы с удовольствием делятся с ней своими секретами, несмотря на то, что это не человек, а робот. 

Magic link? Это волшебная ссылка: она открывает лайт-версию материала. Ее можно отправить тому, у кого «Медуза» заблокирована, — и все откроется! Будьте осторожны: «Медуза» в РФ — «нежелательная» организация. Не посылайте наши статьи людям, которым вы не доверяете.