Перейти к материалам
истории

Сэм Альтман — один из главных архитекторов ИИ — оказался, мягко говоря, не очень надежным человеком Авторы The New Yorker утверждают, что директор OpenAI — патологический лжец. Пересказываем их большое расследование

Источник: Meduza
Anna Moneymaker / Getty Images

Генеральный директор организации OpenAI Сэм Альтман сыграл ключевую роль в развитии искусственного интеллекта в последние несколько лет. В 2025-м журнал TIME назвал его одним из людей года среди других «архитекторов ИИ». Однако репутация Альтмана не безупречна. В 2023-м несколько членов совета директоров OpenAI обвинили его в систематической лжи и уволили потому, что он не может контролировать столь серьезную и потенциально опасную технологию, как ИИ. Через пять дней Альтман добился восстановления в должности CEO. Тем не менее его критики по-прежнему сомневаются в его моральных качествах. Среди прочего Альтмана обвиняют в том, что он нарушил большинство обещаний о принципах работы OpenAI, которые дал при создании организации. «Медуза» пересказывает большой материал авторов The New Yorker Ронана Фэрроу и Эндрю Маранца о неизвестных ранее деталях жизни Сэма Альтмана.

Изначально Альтман собирался спасти мир, создав «безопасный ИИ». Однако со временем его риторика изменилась — главной ценностью стала прибыль

В 2005 году, когда Альтман изучал информатику в Стэнфордском университете, он присоединился к венчурному фонду Y Combinator, основанному программистом Полом Грэмом. По задумке Грэма, предприятие должно было функционировать как бизнес-инкубатор для стартапов в области информационных технологий. Альтман предложил руководству Y Combinator проспонсировать проект сервиса Loop, который позволяет владельцам мобильных телефонов делиться местоположением с другими людьми. Его проект получил финансирование. После этого Альтман бросил учебу и возглавил компанию Loopt, Inc. Параллельно он стал одним из партнеров в Y Combinator. 

Авторы The New Yorker Ронан Фэрроу и Эндрю Маранц рассказывают, что уже во второй половине 2000-х, когда Альтман был еще только начинающим бизнесменом, подчиненные не раз уличали его во лжи по безобидным поводам. Например, один из бывших подчиненных вспомнил, как Сэм говорил, будто он — чемпион штата Миссури по пинг-понгу среди старшеклассников. Вскоре выяснилось, что Альтман один из худших игроков в в офисе. Когда журналисты спросили про это Альтмана, тот ответил, что, вероятно, просто шутил. 

Со временем у группы сотрудников Loopt возникли более серьезные претензии к Альтману — его обвинили в непрозрачности и преследовании своих интересов при руководстве компанией. По данным журналистки и автора биографии Альтмана Кич Хэйги, подчиненные даже дважды обращались к совету директоров с просьбой уволить Альтмана. Им отказали. 

Loop не был особо популярен, и в 2012-м его поглотила финансово-технологическая компания Green Dot Corporation. Знакомый с обстоятельствами сделки источник рассказал Фэрроу и Маранцу, что ее организовал общий (у Green Dot и у Loopt) инвестор, чтобы помочь Альтману сохранить репутацию. 

Тем не менее многие были впечатлены лидерскими качествами Альтмана во время работы в Loopt. В 2014-м руководитель Y Combinator Пол Грэм назвал его своим преемником. 

Под руководством Альтмана Y Combinator резко расширился — количество стартапов, в которые инвестировала компания, увеличилось с нескольких десятков до нескольких сотен.

Однако многие партнеры и другие руководители бизнес-инкубатора были недовольны методами Альтмана: его обвиняли, что он вкладывает собственные средства в стартапы, которые считает наиболее перспективными, лишая доступа сам инкубатор. Эти обвинения привели к уходу Альтмана из Y Combinator в 2019-м. По словам Альтмана, его не уволили — он ушел по собственному желанию, чтобы сосредоточиться на других проектах, в частности, на создании «безопасного ИИ». 

В середине 2010-х Альтман настаивал, что главным принципом при разработке ИИ должна быть осторожность. Важнее всего, по его словам, чтобы новая технология не навредила людям. В своем блоге и в разговорах с коллегами он много говорил, что ИИ представляет потенциальную опасность и что разработкой нейросетей не должна заниматься «жадная до прибыли мегакорпорация». 

Альтман много обсуждал эту тему с Илоном Маском, который тогда входил в сотню богатейших людей планеты. Маск разделял опасения Альтмана. В 2014-м он написал в твиттер: «Нам нужно быть суперосторожными с ИИ. Потенциально он опаснее ядерного оружия».

Альтман в переписке с Маском и вовсе рассуждал о том, нельзя ли предотвратить создание ИИ. Однако предприниматели пришли к выводу, что затормозить прогресс невозможно. Тогда они решили создать компанию со строгой корпоративной этикой, которая навязала бы конкуренцию в сфере ИИ Google и другим технологическим гигантам. Они назвали эту компанию OpenAI. 

Как, по мнению Альтмана, ИИ может уничтожить человечество 

В 2015 году Альтман написал у себя в блоге: «Искуственный сверхинтеллект необязательно должен быть зловещим порождением сай-фая, чтобы покончить с нами. Наиболее вероятный сценарий [уничтожения человечества] состоит в том, что ему просто не будет до нас дела, и, стремясь реализовать какую-то другую цель, он сотрет нас с лица земли». 

Свое предприятие Альтман и Маск сравнивали с Манхэттенским проектом — инициативой американского правительства по разработке ядерного оружия в годы Второй мировой войны. Альтман считал, что «супер-ИИ» — это экзистенциальная угроза для человечества. 

Он постарался собрать вместе ученых, которые, по его мнению, могли разработать такую технологию, чтобы их не заманил Google или другая корпорация, которая будет использовать искусственный интеллект недостаточно осторожно. Этими учеными стали Илья Суцкевер и биофизик Дарио Амодеи. Оба согласились присоединиться к OpenAI — во многом по этическим соображениям, поскольку в Google им предлагали более выгодные условия. 

В своих записях Амодеи отмечал, что главная цель Альтмана — «создать ИИ-лабораторию, сосредоточенную на безопасности». А Суцкевер вспомнил, как основатель OpenAI говорил сотрудникам, что вместе они спасут мир. Альтман верил, что если взять ИИ под контроль, он принесет много пользы: обеспечит изобилие ресурсов, найдет лекарство от рака, будет выполнять механический труд. 

Первые несколько лет Альтман и Маск руководили делами компании совместно с Суцкевером и инженером Грегом Брокманом. OpenAI функционировала как некоммерческая организация — ее бюджет в основном состоял из пожертвований.

Однако в 2018 году стратегия изменилась. Маск поссорился с Альтманом по поводу того, кто должен руководить OpenAI и должна ли организация становиться коммерческой — то есть стремиться к прибыли и прежде всего отстаивать свои интересы, а не абстрактные благие цели. 

Альтман настаивал, что при смене статуса компании он должен занять должность CEO — генерального директора. Из-за разногласий в 2018-м Маск покинул OpenAI, а Альтман добился единоличного контроля.

По данным The New Yorker, в борьбе за власть он давал разные обещания разным группы внутри компании. В частности, недовольным манерой руководства Брокмана сотрудникам Альтман пообещал, что роль Брокмана станет менее значимой. При этом Альтман заключил с Суцкевером и Брокманом тайное соглашение, что покинет должность CEO, если они посчитают, что он больше не в состоянии адекватно выполнять свои обязанности. 

Чем больших успехов добивалась OpenAI в разработке чат-бота, который позже станет известным под названием ChatGPT, тем больше сомнений появлялось у некоторых сотрудников, включая Суцкевера и Амодеи. Они не были уверены, что компания движется в нужном направлении и что Альтману можно доверять. Им казалось, что CEO слишком сосредоточен на извлечении прибыли и не следует своей изначальной цели — создании ИИ, который не будет опасен для человечества.

Еще об опасности ИИ

Исследователи предсказали будущее искусственного интеллекта. В одном из сценариев ИИ уничтожает человечество в 2030 году Мы и правда в опасности?

Еще об опасности ИИ

Исследователи предсказали будущее искусственного интеллекта. В одном из сценариев ИИ уничтожает человечество в 2030 году Мы и правда в опасности?

На одном из тайных от Альтмана собраний недовольные им сотрудники вспомнили скетч дуэта британских комиков Дэвида Митчелла и Роберта Уэбба, в котором нацистский солдат на Восточном фронте Второй мировой войны задается риторическим вопросом: «Ганс, мы что, злодеи?» 

По словам Амодеи, к 2018 году он понял, что все происходящее в OpenAI — это «набор меняющихся схем по зарабатыванию денег». В 2018-м Амодеи потребовал от Альтмана и Брокмана принять внутренне правило, согласно которому, если «проект со схожими ценностями» приблизится к разработке общего искусственного интеллекта раньше, чем OpenAI, то OpenAI не станет с ним конкурировать. А вместо этого — объединит усилия и поможет создать безопасный ИИ. Альтман и Брокман согласились принять правило. 

Однако, когда в 2019-м OpenAI принял инвестицию в размере одного миллиарда долларов от Microsoft, в соглашение внесли пункт, по которому Microsoft может блокировать любое слияние — в том числе с теоретическим партнером в разработке безопасного ИИ. Альтман изначально отрицал, что такой пункт существует. Позже он обвинил Амодеи и его сестру Даниэлу, которая тоже работала в компании, что они хотят сместить его с должности. Впоследствии Альтман отказался от своих слов и притворился, что ни в чем не обвинял коллег. В 2020-м Амодеи и Даниэла ушли из OpenAI и основали технологическую компанию Anthropic.

Как Трамп решил создать AGI

В США хотят создать искусственный интеллект, который превзойдет человека. На это потратят 500 миллиардов долларов Получится? Вряд ли: пока нейросети «не умнее кошки»

Как Трамп решил создать AGI

В США хотят создать искусственный интеллект, который превзойдет человека. На это потратят 500 миллиардов долларов Получится? Вряд ли: пока нейросети «не умнее кошки»

Попытка сместить Альтмана провалилась. Добившись возвращения, Альтман выгнал критиков и окончательно стал ИИ-оптимистом 

Альтман часто врал сотрудникам своей компании. В 2022 году он заявил, что хочет учредить стипендию разером в один миллиард долларов для специалистов, занимающихся контролем искусственного интеллекта. Тогда же он в переписке с будущим сотрудником OpenAI рассказал, что много размышляет о потенциальных угрозах со стороны ИИ.

Однако уже в 2023-м он решил вместо стипендии создать внутри компании команду исследователей, которые будут анализировать угрозы ИИ для человечества. Альтман пообещал, что в ее распоряжении будет 20 процентов от всех вычислительных мощностей OpenAI. На самом деле специалисты по безопасности получили меньше двух процентов, а самые передовые технологии использовали подразделения, чья работа приносит прибыль. 

Вот другой пример. В декабре 2022-го Альтман заверил членов правления OpenAI, что готовящаяся к выпуску языковая модель GPT-4 прошла проверку специальной комиссии по безопасности. Но когда члены правления попросили предоставить отчет этой комиссии, оказалось, что многие функции новой технологии не были проверены и одобрены. Примерно тогда же выяснилось, что Microsoft выпустил раннюю версию ChatGPT для индийских пользователей до завершения всех необходимых процедур. В разговорах с советом директоров OpenAI Альтман скрыл эту информацию. 

Работавший в то время в OpenAI исследователь ИИ Кэрролл Уэйнрайт пришел к выводу, что компания «отдает все больший приоритет продажам, а не безопасности».

Возглавлявший «команду по решению проблемы контроля ИИ» Ян Лейке в 2023-м написал членам совета директоров письмо о том, что «OpenAI отклонилась от своей миссии». «Мы ставим прибыль превыше всего, — продолжал Лейке. — После идет исследование возможностей ИИ, а безопасность и контроль — на последнем месте». 

Эти же опасения разделял Илья Суцкевер. К концу 2023 года он решил, что Альтман не подходит для руководства компанией. Суцкевер и другие члены руководства подготовили отчет, в котором приводились подтверждения отступления CEO от принципов OpenAI. На основании этого документа в ноябре 2023-го правление компании объявило об увольнении Альтмана, поскольку тот «не был откровенен в своих коммуникациях». 

Однако всего через пять дней Альтман добился восстановления в должности. Его поддержал предприниматель Джошуа Кушнер, который заявил, что его венчурная компания Thrive завершит согласованную инвестицию в OpenAI в размере миллиарда долларов, только если Альтман будет восстановлен. Кроме того, Microsoft объявила, что при увольнении поможет Альтману создать новое предприятие — конкурента OpenAI. 

В результате 745 из 770 сотрудников OpenAI подписали переданное правлению письмо, что уйдут, если Альтмана не восстановят. Бизнесмен вернулся. Из четырех членов правления, проголосовавших за смещение Альтмана, компанию покинули трое: Суцкевер, Таша Макколи и Хелен Тонер. Остался только Адам Ди Анджело.

Сэм Альтман на слушаниях в Сенате. Вашингтон. 16 мая 2023 года
Eric Lee / Bloomberg / Getty Images

В октябре 2025 года смещение акцентов компании было оформлено юридически — OpenAI переквалифицировалась в коммерческую корпорацию. 

Изменилась и риторика Альтмана об опасности, исходящей от искусственного интеллекта. В июне 2025-го он написал, что человечество «близко к созданию супер-ИИ». Однако CEO OpenAI говорил об этом не с тревогой как раньше, а, наоборот, с оптимизмом. По его словам, появление такой технологии обеспечит человечество новыми благами и «чудесными вещами». Авторы The New Yorker делают вывод, что Альтман перестал относиться к проблеме контроля ИИ как к серьезной опасности и заговорил о ней как о мелкой помехе. 

Многие знакомые Альтмана называют одним из его главных качеств умение добиваться своего. По словам его бывшего руководителя в Y Combinator Пола Грэма, «если вы сбросите Сэма на остров с каннибалами и вернетесь через пять лет, то увидите, что он стал там королем». Грэм ценил Альтмана за целеустремленность. Еще в 2000-х он говорил, что его подопечного «не остановят никакие ограничения». 

Другой член правления OpenAI на правах анонимности сказал журналистам: «Альтман не ограничивает себя правдой. В нем сочетаются две черты, которые редко встретишь в одном человеке. Он очень хочет нравиться людям. Но при этом ему как социопату практически нет дела до того, к каким последствиям может привести его ложь». Это качество проявляется даже во вроде бы повседневных делах: например, собеседники The New Yorker рассказали, как Альтман обещал одну и ту же должность двум людям. 

Еще в начале 2010-х Альтмана называл социопатом программист Аарон Шварц, тоже работавший над своим стартапом в Y Incubator. Шварц говорил друзьям: «Сэму никогда нельзя доверять. Он социопат. Он готов на все». 

Сомнения в честности Альтмана выразили даже некоторые сотрудники давнего партнера OpenAI Microsoft. Один из собеседников Фэрроу и Маранца сказал, что Альтман часто «искажал и менял условия договоров», а также «уклонялся от соглашений». 

Журналисты The New Yorker пишут, что у CEO OpenAI уникальная способность убеждать нужных ему специалистов в том, что он разделяет их ценности и убеждения. А когда они понимают, что это не так и разочаровываются в Альтмане, он уже получает от них то, что хотел.

Именно это произошло с Суцкевером и Амодео. При этом самого Альтмана, по словам многих собеседников The New Yorker, нельзя назвать выдающимся программистом и специалистом в области информационных технологий. Несколько инженеров рассказали, что он часто путается в обычных терминах и охарактеризовали его как бизнесмена, прежде всего нацеленного на получение выгоды. 

Правда ли, что ИИ — это пузырь?

Эксперты все чаще называют бум искусственного интеллекта финансовым пузырем. Это признают даже сами разработчики ИИ В случае краха технологические компании потеряют сотни миллиардов долларов — и не оставят после себя ничего полезного

Правда ли, что ИИ — это пузырь?

Эксперты все чаще называют бум искусственного интеллекта финансовым пузырем. Это признают даже сами разработчики ИИ В случае краха технологические компании потеряют сотни миллиардов долларов — и не оставят после себя ничего полезного

Ради продвижения OpenAI Альтман переметнулся от демократов к Трампу. А еще сблизился с саудовским принцем

После восстановления в должности Альтман согласился на внутреннее расследование, которое должно было подтвердить или опровергнуть претензии Суцкевера. Проверку возглавили два новых члена правления, которых назначили после одобрения Альтмана: бывший президент Гарвардского университета Лоуренс Саммерс и бывший технический директор Facebook Брет Тейлор. 

По итогам разбирательства они объявили все претензии в адрес CEO OpenAI беспочвенными. Однако многие сотрудники компании, согласившиеся пообщаться с The New Yorker, рассказали, что расследование проходило халатно и напоминало постановку с заранее предрешенным исходом.

Саммерс и Тейлор не опросили многих недовольных Альтманом, не гарантировали информаторам анонимность и сосредоточились исключительно на конфликте Альтмана с правлением. Они полностью проигнорировали систематический отход Альтмана от заявленных им же принципов создания безопасного ИИ. 

Кроме того, по итогам расследования, несмотря на заверения в прозрачности, проводившие расследование члены правления не предоставили никому никакого отчета. Некоторые собеседники журналистов признались, что их шокировала халатность расследования и полное отсутствие гласности. 

В отличие от многих предпринимателей в IT-сфере Альтман всегда публично приветствовал государственные проверки и считал, что разработку ИИ должны строго контролировать внешние органы. Выступая перед юридическим комитетом Сената США в 2023 году, он даже предложил создать федеральное агентство по мониторингу искусственного интеллекта. 

Однако, как удалось выяснить изданию TIME, поддерживая строгие меры на публике, на самом деле Альтман блокировал любые попытки ужесточить контроль за ИИ. В частности, в 2022-м и 2023-м он добился (как именно — в тексте не уточняется) сворачивания инициативы ЕС по более строгому мониторингу крупных компаний-разработчиков искусственного интеллекта. 

Когда в 2024-м в Калифорнии выдвинули законопроект о проверке безопасности ИИ, OpenAI высказалась против принятия такого закона. По данным The New Yorker, представители компании даже угрожали законодателям, чтобы те отозвали инициативу, хотя она почти дословно повторяла то, к чему Альтман призывал, выступая в Сенате. В результате закон был принят, но губернатор Калифорнии Гэвин Ньюсом запретил его, воспользовавшись правом вето. 

О вреде ИИ для климата

Искусственный интеллект — это, конечно, классно, но есть проблема. Он сильно вредит климату  Оказывается, пять вопросов ChatGPT расходуют одну бутылку воды

О вреде ИИ для климата

Искусственный интеллект — это, конечно, классно, но есть проблема. Он сильно вредит климату  Оказывается, пять вопросов ChatGPT расходуют одну бутылку воды

Также авторам The New Yorker удалось установить, что некоторых кандидатов в Конгресс США, которые выступают против ограничений в сфере ИИ, спонсирует основанный в 2025 году комитет политического действия Leading the Future. А его свою очередь финансирует один из главных соратников Альтмана Грег Брокман. 

Кроме того, некоторые законодатели, выступающие за ограничение ИИ, в рамках разбирательства между Альтманом и Маском получили судебные повестки с требованием предоставить личную переписку, касающуюся законопроекта о контроле за ИИ. По словам представителей компании, они искали подтверждение, что законопроект продвигает Илон Маск, не простивший Альтмана после ссоры. 

Критики Альтмана обвиняют его не только в отходе от изначальных идеалов OpenAI, но и в политической беспринципности. Во второй половине 2010-х и начале 2020-х Альтман активно поддерживал Демократическую партию. Перед выборами-2016 он призвал голосовать за Хиллари Клинтон и назвал Дональда Трампа «беспрецедентной угрозой для Америки». За время президентства Джо Байдена Альтман как минимум шесть раз встречался с его администрацией и помогал разрабатывать нормативные постановления о контроле в сфере ИИ. 

Однако в 2024-м, когда популярность Байдена начала падать, риторика Альтмана изменилась. Он сказал, что США «будут в порядке, независимо от исхода выборов». А после победы Трампа глава OpenAI пожертвовал миллион долларов в инаугурационный фонд нового главы государства и сделал несколько селфи с блогерами-трампистами Джейком и Логаном Полами. 

После вступления Трампа в должность Альтман написал: «Понаблюдав за президентом более внимательно, я изменил свое мнение о нем. Мне жаль, что я не думал более самостоятельно». С тех пор Альтман вошел в ближний круг Трампа и вытеснил оттуда Илона Маска. «Ему можно просто позвонить, — рассказал Альтман про свои отношения с Трампом. — Мы не приятели, но если мне нужно что-то с ним обсудить, то я так и делаю».

Дональд Трамп вместе с соучредителем компании Oracle Ларри Эллисоном, генеральным директором SoftBank Масаёси Сона и генеральным директором OpenAI Сэмом Альтманом. Ноябрь 2025 года
Andrew Harnik / Getty Images

Как удалось узнать журналистам Ронану Фэрроу и Эндрю Маранцу, Альтман пользовался близостью к Белому дому и эксплуатировал страх администрации Трампа перед геополитическими врагами, чтобы укрепить позиции своей компании.

Например, однажды в разговоре с представителями разведки он сказал, что Китай уже запустил свою версию «Манхэттенского проекта в сфере ИИ» и, чтобы не отстать от Пекина, OpenAI нужно несколько миллиардов долларов от государства. Когда его спросили, откуда он знает про китайскую инициативу, Альтман сказал, что «кое-что слышал». Он пообещал предоставить доказательства, но так этого и не сделал. Сотрудник разведки рассказал журналистам, что их ведомство не нашло никаких подтверждений китайского «проекта Манхэттен в сфере ИИ». Вероятно, Альтман придумал эту историю, чтобы получить финансирование. 

Бывший советник OpenAI по этике Пейдж Хедли в разговоре с The New Yorker вспомнил, что руководство компании никак не реагировало на его предупреждения о потенциальных катастрофических последствиях гонки вооружений в области ИИ. А преданный Альтману технический директор OpenAI Грег Брокман даже предложил устроить аукцион между мировыми державами, включая Китай и Россию, чтобы получить как можно больше денег за технологию общего искусственного интеллекта. По словам Хедли, рассуждения Брокмана фактически звучали так: «Мы говорим о самой разрушительной технологии в истории — что если мы продадим ее Путину?» 

Другой бывший сотрудник OpenAI Джек Кларк рассказал, что Брокман (вероятно, с одобрения Альтмана) хотел создать ситуацию, когда все государства будут вынуждены платить их компании, чтобы технология не досталась их противникам. В конце концов от плана отказались. По словам Хедли, Альтман отверг инициативу, потому что не хотел терять сотрудников, выступивших против идеи Брокмана. При этом его не особо беспокоило, что эта инициатива могла спровоцировать войну между сверхдержавами. 

Во второй половине 2010-х в поисках инвесторов Альтман не только интересовался аукционом между сверхдержавами, но и вышел на страны Ближнего Востока. Он познакомился с Мухаммадом бин Салманом, наследным принцем и фактическим правителем Саудовской Аравии, еще в 2016-м. Тогда они вместе поужинали в Сан-Франциско. С тех пор Альтман называл бин Салмана другом. В сентябре 2018-го Альтман упомянул в разговоре с Хедли, что Суверенный фонд Саудовской Аравии может инвестировать в OpenAI «десятки миллиардов» долларов. 

Примерно через месяц одного из главных критиков бин Салмана, журналиста Джамаля Хашогги убили на территории консульства Саудовской Аравии в Стамбуле. ЦРУ, сообщило, что это преступление организовал саудовский принц. Однако это не остановило Альтмана от того, чтобы спустя неделю после гибели Хашогги присоединиться к консультативному совету Neom — «города будущего», который бин Салман пытается построить в пустыне. Впрочем через несколько дней Альтман все же покинул консультативный совет. Однако в частных разговорах он все равно обсуждал возможность получения инвестиций от саудовского правительства. 

Почему провалился Neom

Принц Саудовской Аравии обещал построить небоскреб длиной 170 километров посреди пустыни. Проект обернулся логистическим кошмаром Рассказываем, что пошло не так при строительстве Neom — «города будущего»

Почему провалился Neom

Принц Саудовской Аравии обещал построить небоскреб длиной 170 километров посреди пустыни. Проект обернулся логистическим кошмаром Рассказываем, что пошло не так при строительстве Neom — «города будущего»

«Его вопрос состоял не в том, плохо так поступать, а в том, какие будут последствия, если мы это сделаем, — рассказал юрист, с которым Альтман обсуждал эту тему. — Он думал о том, какие будут санкции и получится ли избежать неприятностей». 

Параллельно Альтман обсуждал с членами правительства ОАЭ возможность строительства на территории их страны заводов по производству микрочипов и центров обработки данных. При этом его не волновало, что в таком случае власти арабского государства смогут контролировать американские технологии и использовать их в своих интересах. Сейчас OpenAI действительно планирует строительство дата-центров в Абу-Даби. 

В начале 2026 года Альтман договорился, что предоставит Пентагону разработанные его компанией ИИ-технологии. Сумма сделки — 50 миллиардов долларов. После этого как минимум два сотрудника высшего звена уволились из OpenAI в знак протеста. Ведь все это противоречит изначальной цели компании — создать безопасный искусственный интеллект. 

Когда авторы The New Yorker спросили его, должен ли руководитель ИИ-компании быть честным, он ответил: «Я думаю, что многие предприятия могут оказывать влияние на общество — как хорошее, так и негативное». Позже он прислал журналистам дополнение: «Да, эта должность требует особой честности, и я чувствую эту ответственность каждый день».

Сам Альтман опровергает, что его не интересуют только успех компании и деньги. Один из собеседников журналистов вспомнил, как директор OpenAI сказал ему: «Мне нет дела до денег. Меня больше волнует власть». 

Недавно OpenAI опубликовало план реформ, посвященных искуственному сверхинтеллекту

Что делать с людьми, когда их заменит ИИ? OpenAI предложила план социальных и экономических реформ для наступающей эпохи сверхинтеллекта Его критикуют как расплывчатый и нереалистичный

Недавно OpenAI опубликовало план реформ, посвященных искуственному сверхинтеллекту

Что делать с людьми, когда их заменит ИИ? OpenAI предложила план социальных и экономических реформ для наступающей эпохи сверхинтеллекта Его критикуют как расплывчатый и нереалистичный

«Медуза»