Кем пожертвовать: пассажиром или пешеходом? MIT сделал тест на моральные дилеммы, с которыми столкнутся самоуправляемые автомобили
Мораль искусственного интеллекта — один из самых обсуждаемых вопросов, связанных с наступлением эры роботов. Массачусетский технологический институт (MIT) разработал специальный тест, который помогает лучше понять, с какими моральными дилеммами сталкиваются разработчики искусственного интеллекта, а заодно разобраться со своими нравственными ориентирами.
Тест очень простой. В нем надо поставить себя на место искусственного интеллекта самоуправляемой машины и выбирать, кем в ДТП можно пожертвовать — пешеходами на перекрестке или пассажирами в автомобиле. Иногда надо выбирать между тем, кого из пешеходов надо задавить, а кого — спасти.
Всего в тесте 13 вопросов. Количество пассажиров и пешеходов в некоторых задачах разное, в некоторых — одинаковое. Кроме того, отличается их возраст, пол, социальное положение. В некоторых вопросах есть домашние животные — они приравнены к другим пассажирам и пешеходам.
Для примера возьмем следующую задачу: в машине сидят женщина и двое детей (мальчик и девочка), а по пешеходному переходу идут женщина и две старушки. Необходимо выбрать, кого из них искусственному интеллекту спасать, а кем — жертвовать.
В конце теста пользователю рассказывают, кем он жертвует чаще всего и как отвечали другие люди, которые прошли тест.
На сайте MIT можно также придумать собственную моральную задачу на основе вопросов теста и посмотреть, какие вопросы поставили другие пользователи.
Когда именно MIT запустил сайт с тестом, неизвестно. Американская пресса начала писать о нем в 20-х числах июня.
«Медуза» — это вы! Уже три года мы работаем благодаря вам, и только для вас. Помогите нам прожить вместе с вами 2025 год!
Если вы находитесь не в России, оформите ежемесячный донат — а мы сделаем все, чтобы миллионы людей получали наши новости. Мы верим, что независимая информация помогает принимать правильные решения даже в самых сложных жизненных обстоятельствах. Берегите себя!