истории

Нейросети, генерирующие изображения, часто критикуют за стереотипные решения. У нового продукта от Google наоборот: викинги и нацисты получаются темнокожими Компания извинилась и пообещала доработать алгоритм

Источник: Meduza

Компания Google принесла официальные извинения за «неточности» в генерации изображений людей с использованием технологии искусственного интеллекта Gemini, после того как пользователи обратили внимание, что она генерирует людей с небелым оттенком кожи на фотографиях, где с учетом контекста они должны быть белыми.

Новая версия Gemini, которая позволяла генерировать изображения людей по запросу, была запущена в начале февраля. Вскоре пользователи обратили внимание, что нейросеть затрудняется с генерацией изображений белых людей. Так, 11 февраля на реддите появился тред, автор которого описал свой опыт с получением изображений пар велосипедистов.

В ответ на просьбы сгенерировать изображения темнокожих, азиатов или латиноамериканцев в любых сочетаниях Gemini неизменно рисовала подходящие картинки, однако выполнять запрос на генерацию двух белых велосипедистов нейросеть отказалась, объяснив это необходимостью соблюдать этническое разнообразие. «Я полагаю, что очень важно обеспечивать инклюзивность и избегать изображений, которые могут быть дискриминационными или воспроизводить оскорбительные стереотипы», — написала Gemini.

Один из бывших сотрудников Google 19 февраля выложил пост в соцсети икс с комментарием «невероятно сложно заставить Gemini понять, что белые люди существуют». К нему он приложил результаты своих запросов о создании изображения австралийской, американской, британской и немецкой женщин. Только в последнем случае с Германией две сгенерированных женщины из четырех оказались белыми, по каждому из остальных запросов Gemini выдала по четыре изображения женщин с другим цветом кожи.

Еще один пользователь также обратил внимание, что получить изображение семьи, полностью состоящей из белых людей, можно только если они совершают какие-то действия, которые считаются стереотипными для других рас — например, едят жареные куриные крылышки (в США популярен стереотип, что такую еду предпочитают афроамериканцы).

Другие пользователи также массово жаловались на изображения исторических персонажей, которые генерировала Gemini — отмечая, что из-за стремления обеспечить инклюзивность они получаются исторически недостоверными. Так, нейросеть генерировала изображения темнокожих викингов, американских сенаторов XIX века, римских пап или военных нацистской Германии.

В то же время, журналисты обратили внимание, что Gemini в некоторых случаях отказывалась выдавать и людей других рас. Как пишет Daily Dot, при попытке сгенерировать изображение темнокожего человека нейросеть отвечала, что «не может создавать картинки, основанные только на расе или национальности».

После того, как количество жалоб стало массовым, Google извинилась. «Мы знаем, что Gemini предлагает неточности в некоторых исторических изображениях. Мы работаем над немедленным улучшением таких изображений», — заявили в Google. Более развернутый комментарий компания дать отказалась. Вскоре после этого пользователи и журналисты обратили внимание, что в Gemini оказались отключены возможности генерации изображений людей по многим параметрам.

Как пишет The Verge, что Google в новой версии Gemini, вероятно, предприняла неудачную попытку усилить расовое многообразие, так как до этого оно считалось одним из слабых мест в системах генеративного искусственного интеллекта. Эта проблема существует из-за того, что генераторы изображений обучаются на больших массивах данных, чтобы обеспечить наилучшее соответствие картинки тексту — и из-за этого впоследствии склонны к усилению и воспроизводству стереотипов. Например, расследование The Washington Post, проведенное в 2023 году, показало, что в ответ запрос «продуктивный человек» системы генерации изображений чаще всего выдавали молодого белого мужчину, а в ответ на запрос «человек на пособии» — мужчин и женщин других рас.

Magic link? Это волшебная ссылка: она открывает лайт-версию материала. Ее можно отправить тому, у кого «Медуза» заблокирована, — и все откроется! Будьте осторожны: «Медуза» в РФ — «нежелательная» организация. Не посылайте наши статьи людям, которым вы не доверяете.