«Крестный отец ИИ» Джеффри Хинтон уволился из Google, раскритиковал компанию за неэтичность — и теперь предупреждает мир об опасности искусственного интеллекта Вот его история
В числе тех, кто открыто задавался вопросами об этичности использования ChatGPT, c самого начала был разработчик нейросетей, британо-канадский ученый Джеффри Хинтон. Он внес значимый вклад в развитие чат-ботов с искусственным интеллектом, но за последние месяцы превратился в принципиального противника неосмотрительного применения ИИ. Весной 2023 года он покинул компанию Google. «Медуза» рассказывает о том, за что Хинтона прозвали «крестным отцом ИИ» и почему он так критикует технологии, которые еще недавно помогал создавать.
Хинтон ушел из Google и выступил против чат-ботов, потому что из-за них обычные люди «больше не будут знать, где правда»
В 2012 году профессор Университета Торонто Джеффри Хинтон и двое его студентов разработали систему, которая могла анализировать тысячи снимков и обучать саму себя распознавать в реальности похожие объекты — например, цветы, животных или автомобили — с беспрецедентной точностью. После выдающегося достижения Хинтон и его ученики Илья Суцкевер и Алекс Крижевский продолжили исследования — а компанию, в которой они трудились над нейросетями, приобрела Google. Именно разработки британского профессора и двух студентов ускорили внедрение ИИ — и привели к появлению ChatGPT, Google Bard и других чат-ботов.
В 2018-м Хинтон получил премию имени Алана Тьюринга с формулировкой «за концептуальные и инженерные прорывы, сделавшие глубинные нейросети краеугольным компонентом в вычислительной технике». Пять лет спустя ученый резко изменил взгляды на ИИ, покинул Google — и 1 мая дал интервью The New York Times (NYT), в котором высказался об опасностях в этой сфере. Главная угроза чат-ботов и других подобных технологий, по мнению Хинтона, заключается в том, что интернет так сильно наполнится фейковым контентом — сгенерированными фотографиями, видео и текстами, — что обычные люди «больше не будут знать, где правда».
Ученый также выразил опасения, что ИИ-технологии со временем превратятся из помощников людей в их замену и оставят представителей многих профессий без работы. «Некоторые люди верили, что технологии могут стать умнее, чем мы, но большинство считало это преувеличением, — сказал Хинтон в интервью NYT. — Я тоже думал, что до этого еще далеко. Я думал, что нам остается до этого от 30 до 50 лет или даже больше. Очевидно, я больше так не считаю».
Хинтон развивал идеи Тьюринга и мечтал создать искусственную систему, которая обучалась бы, как человеческий мозг
Хинтон родился в 1947 году в семье уважаемого энтомолога, которая жила в Уимблдоне (пригороде Лондона). Его прадед Джордж Буль разработал математическую логику, а названная в его честь Булева алгебра заложила основы для многих технологий, получивших развитие в информационную эру.
К разочарованию отца Джеффри решил изучать не насекомых, а людей. В 1970-м он окончил Кембриджский университет по специальности «экспериментальная психология», но затем взял паузу в академической деятельности и целый год занимался столярным делом. «Наука утомила меня, и я решил, что хочу быть плотником», — объяснял Хинтон. В 1972 году Джеффри заинтересовался программой по искусственному интеллекту в Эдинбургском университете, оставил мечту о карьере плотника и переехал в Шотландию. Там он погрузился в разработку нейронных сетей.
«Тогда в эту идею не верил ни один человек на земле, — рассказывал Хинтон. — Она считалась тупиком даже среди исследователей ИИ».
Однако разработки молодого британца привлекли внимание группы когнитивных психологов из Сан-Диего. Хинтон отправился в США и начал исследовать метод обратного распространения ошибки — алгоритм, который позволял нейронным сетям обучаться и совершенствоваться. Позже методы, в создании которых Хинтон принял активное участие, назвали глубоким обучением. Они позволяли ИИ не только выполнять конкретные действия в рамках одного алгоритма, но и расширять свои возможности с помощью внешних данных.
«Идея состояла в том, чтобы получить устройство, которое обучалось бы так же, как обучается мозг, — рассказывал Хинтон. — Это была не моя идея, о том же думал Алан Тьюринг. Он считал, что мозг представляет собой неорганизованную машину, которая использует обучение с подкреплением (способ машинного обучения, когда система обучается, взаимодействуя со средой, — прим. „Медузы“), чтобы менять связи внутри себя, и которая способна обучиться чему угодно. Он считал, что это лучший подход к изучению интеллекта».
Стремление разработать систему, которая могла бы обучаться так же, как человеческий мозг, определило всю карьеру Хинтона. В конце 1970-х и в 1980-х он активно пытался создать алгоритмы, способные распознавать звуки и изображения. Ключевую роль в проектах ученых того времени играли внутренние представления, то есть информационные структуры, которые воспринимающая система создает и сохраняет как комбинации качеств, присущих внешним объектам.
«Вопрос о том, как создавать внутренние представления, считался святым Граалем исследований ИИ», — объяснил Хинтон. Однако компьютеры полвека назад не обладали достаточной скоростью, чтобы генерировать внутренние представления так же быстро, как человеческий мозг.
С 1982 года Хинтон занимал позицию профессора в Университете Карнеги — Меллона в Питтсбурге, но политика администрации американского президента Рональда Рейгана все больше раздражала британца. Ему не нравилось, что большинство исследований ИИ в США спонсируются министерством обороны, поэтому в середине 1980-х Хинтон перебрался в Канаду, где ему предложили должности в Канадском институте перспективных исследований и в Университете Торонто.
Там Хинтон продолжал исследования, несмотря на то что многие его коллеги к тому моменту разочаровались в идее создать обучающийся ИИ и занялись другими проектами. «В 1990-х наборы данных были недостаточно большими, а компьютеры — по-прежнему недостаточно быстрыми, — рассказал Хинтон. — С маленькими наборами данных лучше работали другие методы. Они не отвлекали обилием информации. Это очень угнетало, поскольку в 1980-х мы разработали метод обратного распространения ошибки и думали, что решили все проблемы. Нас беспокоило, почему у нас по-прежнему не получалось использовать эту технологию».
Головоломка с обучаемостью искусственных систем решилась с появлением более быстрых и мощных компьютеров уже в XXI веке. Хинтону и его коллегам удалось внедрить в искусственные системы алгоритмы, которые позволяли тем формировать внутренние представления. Еще ИИ снабжали паттернами речи, которые позволяли воспринимать и интерпретировать устную речь и письменные тексты. Заложенные в системах Хинтона детекторы признаков обрабатывали фрагменты информации и находили связи между ними, благодаря чему процесс обучения заметно ускорился.
Заниматься исследованиями Хинтону приходилось стоя из-за проблем со здоровьем. Спину он повредил еще в подростковом возрасте, когда переносил обогреватель для матери. С тех пор сидячее положение грозило ученому грыжей межпозвонкового диска, поэтому он привык постоянно стоять. «Последний раз я садился в 2005-м, — признался Хинтон в 2012 году. — И это оказалось большой ошибкой».
«Похожие идеи были и у других ученых, но он всегда оказывался в центре событий, — объяснил вклад Хинтона в исследования ИИ журналист NYT и писатель Кэйд Мец. — Он активно участвовал в создании систем, которые научились распознавать сначала речь, а затем изображение. Эти два момента стали ключевыми для технологического прогресса и для того, как ИИ применяется в наше время».
Еще два года назад Хинтон разрабатывал новую систему, но изменил мнение об ИИ из-за технологической гонки Google и Microsoft
После разработки нейронной сети с уникальными возможностями к глубинному обучению в 2012-м Хинтон основал компанию DNNresearch и нанял студентов Илью Суцкевера и Алекса Крижевского, которые вместе с ним занимались исследованиями ИИ. Несмотря на скромный статус компании всего с тремя официальными сотрудниками, между крупными корпорациями разразилась борьба за возможность поглотить DNNresearch. На сотрудничество с Хинтоном претендовали китайский технологический гигант Baidu, Google, Microsoft и британский стартап DeepMind британского нейробиолога Демиса Хассабиса, запущенный всего двумя годами ранее.
По итогам аукциона DNNresearch перешла под контроль Google за 44 миллиона долларов. Несмотря на готовность Baidu предложить более крупную сумму, Хинтон сам решил остановить торги, поскольку не захотел, чтобы научное сотрудничество превращалось в фарс. С тех пор и до мая текущего года «крестный отец ИИ» продолжал разработку более совершенных нейронных сетей именно в Google.
В 2021 году Хинтон сосредоточился на создании системы GLOM. По задумке Хинтона, новая разработка должна была решить одну из основных проблем, связанных с ИИ, поскольку обладала бы способностью распознавать одни и те же объекты с разных ракурсов. До этого, несмотря на стремительное развитие нейронных систем и связанных с ними технологий, алгоритм мог, к примеру, не распознать одну и ту же чашку, если она изображалась сначала сбоку, а затем сверху. Подобные задачи продолжали мотивировать и вдохновлять Хинтона, несмотря на статус и положение, которого он добился за почти полувековую карьеру.
Еще одна идея Хинтона заключалась в том, чтобы снабдить нейронные системы «векторами согласия» — алгоритмами, которые анализировали бы информацию схожим образом, но дополняли друг друга и помогали составить более полную картину. Ученый сравнивал подобный подход с группой людей, занятых мозговым штурмом: все они могут соглашаться между собой, однако в ходе дискуссии у них с высокой долей вероятности получится совершенствовать индивидуальные внутренние представления.
«Джефф очень необычный мыслитель в том плане, что он способен совмещать сложные математические концепты с биологическими факторами и на основе этой связи формулировать теории, — отмечает нейроученая и бывшая студентка Хинтона Сью Беккер. — Исследователи более узкого профиля концентрируются либо на математической теории, либо на нейробиологии. У них намного меньше шансов найти ответ на вопрос, как могут учиться и думать люди и машины».
Когда Google, OpenAI и другие технологические компании, занятые исследованиями ИИ, начали разрабатывать нейронные сети, которые обучались на основе обширных фрагментов цифрового текста, Хинтон предположил, что теперь у машин появится больше шансов распознавать и генерировать языки. Однако этот способ обучения, по его мнению, все равно уступал тому, как распознают текст и речь люди.
Позиция Хинтона изменилась в 2022 году, когда Google и OpenAI разработали системы с намного более крупными, чем раньше, базами данных. До этого ученый гордился тем, что Google действует осторожно и не допускает попадания на рынок технологий, теоретически способных принести вред человечеству. Но в последний год конкуренция между Microsoft и Google подтолкнула обе компании к выпуску чат-ботов, возможности которых, по мнению Хинтона, еще не до конца осознают даже сами разработчики. По словам ученого, в некоторых аспектах нейронные сети стали совершеннее, чем человеческий мозг.
«Есть вероятность, что происходящее в этих системах намного превосходит по сложности процессы в человеческом мозге, — отметил ученый. — Посмотрите на то, что происходило [в сфере исследований ИИ] пять лет назад, и на то, что происходит сейчас. Представьте, с какой скоростью изменения будут происходить в будущем. Это пугает». Большинство коллег Хинтона пока считают угрозу гипотетической, но он сам уверен, что во избежание катастрофы нужно взять под строгий контроль Google, Microsoft и других технологических гигантов.
Хинтон опасается, что технологии в конце концов сотрут для большинства людей границу между вымыслом и реальностью, а также кардинальным образом изменят ситуацию на рынке труда. Еще один повод для опасений ученого состоит в том, что искусственные системы могут обучаться непредсказуемому поведению, когда анализируют обширные массивы данных. Это значит, что людям будет все сложнее прогнозировать механизмы функционирования ИИ.
В интервью NYT после ухода из Google указано, что Хинтон жалеет о работе всей своей жизни, но утешает себя оправданием: «Если бы я этого не сделал, это сделал бы кто-то другой». В более позднем разговоре с изданием MIT Technology Review ученый уточнил:
[Журналист NYT] пытался заставить меня сказать, что я сожалею. В конце концов я сказал, что, возможно, небольшие сожаления у меня есть. [Но] я не думаю, что принимал какие-либо неправильные решения во время исследований [по созданию нейросетей]. На самом деле [в 1970-е и 80-е годы] нельзя было предвидеть [текущий этап развития ИИ]. До самого последнего момента я думал, что экзистенциальный кризис [из-за угроз ИИ] еще очень далек [от нас]. В общем, никаких сожалений по поводу того, что я сделал, у меня нет.