Перейти к материалам

Microsoft отключила бота для общения из-за его нацистских взглядов

Источник: Microsoft

Microsoft отключила бота для общения Tay, который за сутки в твиттере приобрел человеконенавистнические взгляды. Как пояснил вице-президент компании Питер Ли, это произошло из-за злоумышленнников, обнаруживших уязвимость в боте. Заново бота запустят, только когда он научится противостоять подобным атакам. 

Бот Tay, созданный для общения с молодежью от 19 до 24 лет, был запущен 23 марта. С ним можно было пообщаться на английском языке в том числе в Twitter. Сначала он писал, что «люди классные» и прочие милые вещи. Но вскоре программа приобрела совсем другие взгляды. 

Среди опубликованных им твитов оказались фразы в поддержку политики Адольфа Гитлера в отношении евреев, а также критические твиты в адрес феминисток. Некоторые сообщения были, впрочем, написаны по просьбе пользователей — они просили бота что-то повторить за ними, и тот соглашался. 

«Искусственный интеллект обучается как на позитивных, так и негативных примерах. Мы постараемся решить проблему защищенности бота с технической стороны, но каким образом люди будут взаимодействовать с ботом, предсказать невозможно», — написал Питер Ли.

Microsoft

В китайском интернете у Microsoft работает бот Xiaoice, который притворяется 19-летним подростком. Как писал один из исследователей компании, китайцы с удовольствием делятся с ней своими секретами, несмотря на то, что это не человек, а робот. 

«Медуза» — это вы! Уже три года мы работаем благодаря вам, и только для вас. Помогите нам прожить вместе с вами 2025 год!

Если вы находитесь не в России, оформите ежемесячный донат — а мы сделаем все, чтобы миллионы людей получали наши новости. Мы верим, что независимая информация помогает принимать правильные решения даже в самых сложных жизненных обстоятельствах. Берегите себя!