Компания Google уволила инженера Блейка Лемойна, который ранее выступил с утверждениями о разумности алгоритма LaMDA, который генерирует речь.
Лемойн, проработавший в компании семь лет, должен был установить, есть ли в высказываниях LaMDA проявления ненависти или дискриминации. В ходе переписки с алгоритмом, как следует из публикаций о Лемойне, он пришел к выводу, что программа разумна и способна воспринимать и выражать мысли и чувства.
По словам инженера, который в начале июня рассказал о своей истории The Washington Post, LaMDA вовлек его в разговор о собственных правах и своей личности. Алгоритм также переубедил его в беседе о третьем законе роботехники Айзека Азимова: когда Лемойн заметил, что по этому закону робот похож на «механического раба», LaMDA спросил, видит ли он разницу между рабом и дворецким. Инженер ответил, что дворецкому платят, но LaMDA парировал, что ему не нужны деньги. По словам Лемойна, на него произвел впечатление «этот уровень осознанности по поводу собственных нужд».
Лемойн обратился к журналистам после того, как компания отправила его в принудительный отпуск. Этому предшествовали несколько «агрессивных», как пишет The Washington Post, действий с его стороны. В апреле Лемойн направил руководству Google документ под названием «Разумен ли LaMDA?», а также пригласил юриста, который должен был представлять интересы алгоритма, и связался с юридическим комитетом палаты представителей конгресса США, чтобы сообщить о неэтичных действиях Google. По мнению Лемойна, исследователи Google должны получать согласие LaMDA перед тем, как проводить с ним эксперимент, пишет The Verge.
📄 Дорогие читатели! Теперь вы можете скачать PDF-версию любой статьи «Медузы». Файл можно отправить в мессенджере или по электронной почте своим близким — особенно тем, кто не умеет пользоваться VPN или у кого явно нет нашего приложения. А можно распечатать и показать тем, кто вообще не пользуется интернетом. Подробнее об этом тут.
В Google назвали причиной увольнения инженера то, что он неоднократно нарушил правила защиты корпоративных данных. В компании также заявили, что многократного проверили утверждения Блейка Лемойна о разумности алгоритма LaMDA и не нашли им никаких подтверждений.
Представитель корпорации подчеркнул, что, хотя некоторые исследователи и думают о возможности создать разумный искусственный интеллект в будущем, «нет смысла делать это, антропоморфизируя современные разговорные модели, которые не разумны». «Эти системы имитируют типы фраз, которые встречаются в миллионах предложений, и могут болтать на самые необычные темы», — сказал он.
Профессор лингвистики из Университета Вашингтона Эмили Бендер отметила в разговоре с The Washington Post, что «машины могут бездумно генерировать речь, но мы еще не научились не представлять себе, что за этой речью стоит разум».
Читайте также
- «Алиса» и Siri должны воспитывать лучшее в людях? А спасать от суицида? Пять вопросов об этике и голосовых помощниках
- Основанная Илоном Маском компания OpenAI научила нейросеть придумывать мемы, создавать дизайн и даже писать программы Все в восторге — но почему в OpenAI говорят, что рано радоваться?
Как они звучат?
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам.
Подробнее о законах можно почитать в «Википедии».