Amir Cohen / Reuters / Scanpix / LETA
истории

Сооснователь OpenAI Илья Суцкевер запустил новый стартап Ученый обещает создать «безопасный суперинтеллект», но пока не уточняет, что это

Источник: Meduza

Один из сооснователей OpenAI Илья Суцкевер, покинувший компанию в мае этого года, объявил о создании собственного ИИ-стартапа. Его главной целью будет разработка безопасного и мощного искусственного интеллекта, независимого от коммерческого давления. Сооснователями новой компании стали бывший коллега Суцкевера по OpenAI Дэниел Леви и бывший руководитель ИИ-проектов Apple Дэниел Гросс. Кто является инвестором нового стартапа и как он сможет добиться финансовой независимости, пока непонятно.


Новая компания будет заниматься только одним некоммерческим проектом. В честь него даже назвали стартап

Новая компания Суцкевера получила название Safe Superintelligence (SSI), что можно дословно перевести с английского как «безопасный суперинтеллект». Официальный сайт стартапа пока состоит из одной страницы, где опубликовано официальное заявление его основателей. В нем, в частности, говорится, что вопросы безопасности и расширения возможностей ИИ должны решаться одновременно с помощью «революционных инженерных и научных прорывов».

На сайте отмечается, что SSI — американская компания с офисами в Пало-Алто (Калифорния, США) и Тель-Авиве (Израиль). По словам основателей стартапа, они выбрали эти города, так как там у них «глубокие корни и возможность нанимать лучших технических специалистов». Вероятно, это отсылка к тому, что у Ильи Суцкевера есть гражданство Израиля, где он жил и учился в период с 1991 по 2002 год. Сейчас SSI собирает команду «лучших инженеров и исследователей мира», которые будут сосредоточены только на безопасном суперинтеллекте.

Помимо Суцкевера, в число сооснователей компании вошли еще два человека: Дэниел Гросс и Дэниел Леви. Первый — 32-летний американец, родившийся в Израиле. Он известен как один из создателей поискового сервиса Cue, который в 2013 году купила Apple. Он также инвестировал в различные ИИ-стартапы, включая Keen Technologies, принадлежащий одному из создателей игры Doom Джону Кармаку. В период с 2013 по 2017 год Гросс руководил в Apple разработкой проектов, связанных с искусственным интеллектом и поиском. Дэниел Леви работал вместе с Суцкевером в OpenAI, где занимался обучением больших языковых моделей.

Пока информации о новом стартапе очень мало. В интервью Bloomberg Илья Суцкевер отметил, что, пока компания не создаст безопасный суперинтеллект, она не будет заниматься ничем больше. Ученый подчеркивает, что новый ИИ будет изолирован от внешнего давления, например не будет участвовать в конкурентной борьбе с другими продуктами на рынке. В заявлении разработчиков упоминаются инвесторы, но Суцкевер отказался раскрыть их имена и не уточнил объем средств, которые есть в распоряжении стартапа.

В СМИ новый стартап Суцкевера называют авантюрой для инвесторов

Журналисты отмечают, что новая инициатива Ильи Суцкевера в каком-то смысле является возвращением к изначальной концепции OpenAI. Эта компания тоже создавалась в первую очередь как исследовательская организация, которая пыталась создать AGI, то есть общий искусственный интеллект. Однако для разработки такого масштабного проекта требуются огромные вычислительные мощности, а значит, и большое финансирование. Со временем структура OpenAI изменилась, компании пришлось заключить целый ряд партнерств, в том числе с Microsoft, и заняться разработкой новых продуктов, приносящих прибыль.

Недавно журналистам стало известно, что в частных беседах глава OpenAI Сэм Альтман не исключил вероятность реструктуризации. Он рассматривает возможность превращения компании в обычную коммерческую корпорацию. По мнению руководства, это позволит привлечь дополнительные средства на новые разработки. Сейчас OpenAI является некоммерческой организацией, но у нее есть подразделение с «ограниченной коммерческой прибылью». 

То, что компания отошла от изначальных принципов разработки искусственного интеллекта, даже стало поводом для судебного иска. Его подал глава Tesla Илон Маск, который входил в состав совета директоров OpenAI с момента ее основания. Он покинул правление компании в феврале 2018 года из-за возможного конфликта интересов. В середине июня 2024 года Маск отказался от этого иска.

Также сообщалось, что именно расхождение во взглядах на развитие компании между Суцкевером и Альтманом привело к временной отставке последнего с поста руководителя OpenAI. В ноябре 2023 года совет директоров решил уволить Альтмана, а также исключить его из состава правления. Вскоре после этого большая часть сотрудников пригрозила покинуть компанию: они требовали вернуть руководителя.

Спустя пять дней Альтмана восстановили в должности. Сообщалось, что одним из инициаторов отставки мог стать именно Илья Суцкевер, который возглавлял в OpenAI научное направление. Журналисты писали, что Сэм Альтман слишком сильно сосредоточился на коммерциализации продуктов OpenAI и не уделял достаточного внимания вопросам безопасности.

В мае 2024 года Илья Суцкевер покинул OpenAI. Его должность в компании занял директор по научным исследованиям Якуб Пачоцки. Сам Суцкевер намекнул, что хочет заняться новым проектом, однако не сообщил никаких деталей.

В материале Bloomberg отмечается, что новая компания Safe Superintelligence — это авантюра для инвесторов, так как у нее (по крайней мере в ближайшее время) не будет сторонних коммерческих разработок. Их основная надежда будет состоять в том, что новая команда Суцкевера сможет совершить настоящий прорыв в области ИИ, который даст им преимущество перед другими крупными компаниями, которые занимаются исследованиями и разработкой в этой области — не только OpenAI, но и, например, Google.

При этом нет никаких гарантий, что создание суперинтеллекта вообще возможно. В индустрии нет единого мнения по этому поводу. Сами основатели SSI настроены оптимистично, по крайней мере в части инвестиций. Дэниел Гросс отмечает, что компания определенно столкнется с рядом проблем, но привлечение капитала не станет одной из них.

Михаил Герасимов

Magic link? Это волшебная ссылка: она открывает лайт-версию материала. Ее можно отправить тому, у кого «Медуза» заблокирована, — и все откроется! Будьте осторожны: «Медуза» в РФ — «нежелательная» организация. Не посылайте наши статьи людям, которым вы не доверяете.