шапито

Искусственный интеллект посадили судить конкурс красоты. Он оказался расистом

10:55, 9 сентября 2016

Летом 2016 года прошел первый конкурс красоты Beauty.AI, в котором судьей был искусственный интеллект. Любой желающий мог загрузить свою фотографию на сайт и узнать, попадает ли он в число самых красивых — по мнению машины — людей.

В конкурсе приняло участие шесть тысяч человек из 100 стран. Но из 44 победителей (их определяли в разных возрастных категориях) только один оказался чернокожим. Еще несколько «красивых» людей оказались азиатами.

В описании конкурса написано, что робот умеет «видеть» морщины, определять симметрию лица, цвет кожи, пол, возрастную категорию, этнос и другие параметры. Конкурс запустила группа экспертов Youth Laboratories, занимающаяся исследованиями в сфере глубинного обучения при поддержке Microsoft.

Научный руководитель Beauty.AI Александр Жаворонков заявил, что у расовых предпочтений искусственного интеллекта есть ряд причин, но главная в том, что в выборке фотографий, по которой машина училась определять стандарты красоты, было недостаточно чернокожих людей. Робот в итоге сделал вывод, что светлый цвет кожи является признаком привлекательности.

Фото в анонсе: Beauty.AI: Beauty Contest Judged by Robots / YouTube

Простейшее объяснение необъективных алгоритмов заключается в том, что у людей, которые их создают, есть глубоко укоренившиеся предрассудки. И несмотря на ощущение, что алгоритмы в каком-то смысле нейтральны и однозначно объективны, они часто могут воспроизводить и усиливать существующие предрассудки (англ. яз.).

The Guardian
В марте 2016 года Microsoft запустила в Twitter бота, сообщения для которого составлял искусственный интеллект. Машина училась на твитах других пользователей, и уже через сутки она стала хвалить Адольфа Гитлера и ругать феминисток. Бота быстро отключили, но вернули в строй через несколько дней. Тогда он вновь сошел с ума.
В мае издание ProPublica опубликовало расследование о программе, которая предсказывает, совершит ли человек преступление еще раз. Выводы программы учитываются в судах ряда американских штатов, и, как оказалось, она настроена против чернокожих, заведомо считая их более склонными к совершению преступлений.