Разработчики искусственного интеллекта (в том числе создатели ChatGPT и ученые из Google) предупредили о «рисках исчезновения человечества» Страны «Большой семерки» уже готовят первые законы, которые помогут им контролировать развитие ИИ
Больше 350 разработчиков и исследователей искусственного интеллекта подписались под открытым письмом, в котором социальные риски из-за развития ИИ приравнены к последствиям пандемии — и даже ядерной войны. Панические настроения (которые, правда, разделяют не все) вышли на самый высокий уровень: как именно регулировать сферу, чтобы не допустить катастрофы, уже начали обсуждать страны G7.
Заявление состоит всего из одного предложения — так эксперты хотят привлечь внимание к проблеме
В открытом письме, которое опубликовал Центр безопасности искусственного интеллекта, нет долгих и абстрактных рассуждений. Все заявление — это одно предложение:
Снижение риска исчезновения человечества из-за [развития] искусственного интеллекта должно стать глобальным приоритетом — наряду с другими рисками, такими как пандемии и ядерная война.
Дэн Хендрикс, исполнительный директор центра, объяснил New York Times, что организация специально не стала «размывать главную мысль списком из 30 рекомендаций к действию». Впрочем, на сайте организации и так легко найти подробные отчеты об исследованиях, главная цель которых — как раз таки снизить социальные риски, возникающие из-за ИИ. Такие опасения, связанные с распространением дезинформации и потенциальной потерей миллионов рабочих мест, обсуждаются специалистами все чаще.
Открытое письмо, на первый взгляд, выглядит как паническое предупреждение перед неминуемым концом света. Но его стоит считать скорее попыткой запустить общественную дискуссию и объединить экспертов в сфере ИИ.
На текущий момент открытое письмо подписали более 350 человек, среди них сооснователи OpenAI, разработчика ChatGPT, Сэм Альтман и Илья Суцкевер (а также множество сотрудников этой компании), работники Google DeepMind и других ИИ-лабораторий, Билл Гейтс, руководители Skype, Asana и других компаний из Кремниевой долины, а также ученые из Гарварда, MIT и прочих ведущих университетов.
Заявление о рисках из-за искусственного интеллекта поддержала, например, канадская певица Граймс. Она открыто предлагает поклонникам создавать нейросетевые каверы на ее песни, пока крупнейшие музыкальные студии и артисты, наоборот, категорически выступают против ИИ-треков.
О рисках спорят даже «крестные отцы ИИ». А страны G7 готовятся зарегулировать искусственный интеллект
Под открытым письмом стоят подписи и «крестных отцов искусственного интеллекта» Джеффри Хинтона и Йошуа Бенжио — двух из трех ученых, которые в 2018 году получили премию имени Алана Тьюринга «за концептуальные и инженерные прорывы, сделавшие глубинные нейросети краеугольным компонентом в вычислительной технике».
Третий — Ян Лекун, который занимает должность вице-президента корпорации Meta и отвечает за исследования в области ИИ, — свою подпись не поставил. Еще задолго до публикации обращения он заявил, что «масштабы проблемы уравнивания ИИ [с человеческом интеллектом] раздуты, а способность решить ее сильно недооценивается».
«Меня и раньше публично называли глупым, но никто не делал этого так часто, как те, кто поддерживает точку зрения об экзистенциальном риске ИИ», — подчеркнул Лекун.
Хотя большинство специалистов в области искусственного интеллекта считают угрозу гипотетической, открытое письмо Центра безопасности ИИ стало уже вторым подобным заявлением с начала года. В марте глава Tesla и SpaceX Илон Маск, сооснователь Apple Стив Возняк и многие специалисты в области ИИ призвали приостановить разработку ИИ хотя бы на полгода, чтобы составить протоколы безопасности. Однако этого не произошло: такой сценарий — при котором компании по всему миру ставят на паузу развитие самой перспективной технологической сферы — представить практически невозможно.
В ближайшее время, скорее, стоит ожидать появления первых законов, которые регулируют правила использования искусственного интеллекта. К примеру, 30 мая представители стран «Большой семерки» впервые провели совещание о внедрении международных стандартов в ИИ-сфере. Предполагается, что правительства должны выработать общие правила до конца года. Лидеры двух государств G7 — премьер-министр Великобритании Риши Сунак и президент США Джо Байден — планируют обсудить ИИ на встрече в Вашингтоне 7–8 июня.
Похоже, что важным стимулом для государств по всему миру стал законопроект ЕС с ограничениями на систему предиктивной аналитики в полиции и биометрию — и его тоже планируют принять в ближайший год. Сэм Альтман из OpenAI осторожно высказался об этом законопроекте, отметив, что у него набралось «много опасений»:
Важны детали [законопроекта]. Мы [OpenAI] постараемся исполнять требования [ЕС], но если мы не сможем, то прекратим свою деятельность [на территории Евросоюза].
«Медуза» — это вы! Уже три года мы работаем благодаря вам, и только для вас. Помогите нам прожить вместе с вами 2025 год!
Если вы находитесь не в России, оформите ежемесячный донат — а мы сделаем все, чтобы миллионы людей получали наши новости. Мы верим, что независимая информация помогает принимать правильные решения даже в самых сложных жизненных обстоятельствах. Берегите себя!