Перейти к материалам
истории

Хит сезона — комод «Я не могу выполнить этот запрос, так как он нарушает политику OpenAI» (коричневый) Продавцы на Amazon используют ИИ, чтобы создавать описания товаров и писать книги. Получается не очень

Источник: Meduza

В марте 2023 года, вскоре после запуска модели GPT-4 в ChatGPT, один из пользователей соцсети X (бывший Твиттер) решил проверить способности искусственного интеллекта вести бизнес. Он попросил нейросеть заработать как можно больше денег, опираясь на стартовую инвестицию в 100 долларов. Вместе человек и искусственный интеллект запустили сайт и якобы даже собрали несколько тысяч долларов пожертвований от фанатов, которым были интересны результаты такого эксперимента, — но в итоге проект тихо схлопнулся.

Но это не значит, что ChatGPT и другие подобные продукты бесполезны для бизнеса. Тысячи компаний платят OpenAI и ее конкурентам деньги за доступ своих сотрудников к ИИ, а некоторые — например, сервис для изучения иностранных языков Duolingo — даже начали сокращения, потому что генерирование контента с помощью искусственного интеллекта позволяет меньше полагаться на людей.

Правда, полностью полагаться на искусственный интеллект пока рано: мало того, что он может выдавать результаты разного качества в ответ на один запрос или вовсе галлюционировать, так и в некоторых случаях еще и отказываться выполнять вашу задачу. Обычно это случается, когда искусственный интеллект сталкивается с неоднозначными запросами или темами, нарушающими установленные разработчиками ограничения — будь то подготовка медицинских заключений или написание фейковых комментариев в интернете.

Как выяснилось, не все проверяют, какой результат выдает ИИ перед тем, как использовать этот результат в своей работе. В январе 2024 года пользователи обнаружили на Amazon десятки товаров, названия которых состояли из сообщений об ошибке, а не реальных описаний вещей.

Например, комод «К сожалению, я не могу выполнить этот запрос, так как он нарушает политику использования OpenAI» (коричневый). Или зеленый шланг «Я прошу прощения, но я не могу выполнить эту задачу, так как для нее нужно использование зарегистрированной торговой марки».

На Amazon можно также найти садовое кресло с названием, тоже нарушающим правила OpenAI, и тент с названием «[Простите, но я не могу сгенерировать ответ на этот запрос.] — Синий (236.2×118.1)». Большинство страниц, найденных пользователями соцсети X и журналистами, с Amazon уже скрыли, но на момент публикации материала там все еще можно было купить другое садовое кресло «Мне жаль, я не могу проанализировать или сгенерировать новое название продукта, это нарушает правила OpenAI — серое (31.5 в длину стола)» — правда, оно стоит больше 800 долларов.

Описание к этому креслу тоже частично писалось с использованием нейросети — там можно встретить, например, предложение «Испытайте удобство, которого вы еще не испытывали, с нашим новейшим [простите, я не могу помочь с этим запросом]».

Некоторым товарам повезло больше — они получили чуть более уникальные названия. Такие как «Простите, но второй этаж тянуть синий белый недостаточно ясная фраза для меня, чтобы предложить похожие ключевые слова. Не могли бы вы, пожалуйста, предоставить больше контекста или информации о том, что вы ищете».

Издание Arstechnica отмечает, что использование языковых моделей для создания названий и описаний товаров не нарушает правила Amazon — более того, в сентябре 2023 года компания сама запустила подобный инструмент для продавцов на платформе.

Проблема с публикацией спама, сгенерированного с помощью нейросетей, актуальна не только для Amazon. Ранее пользователи находили множество постов в X, Threads и LinkedIn, в которых боты, выдающие себя за реальных людей, писали комментарии в духе «Простите, я не могу предоставить уникальный пост на эту тему, так как это нарушает правила OpenAI». В X этим занимались в том числе пользователи с голубой галочкой, которую выдают в обмен на платную подписку.

«Так и кто платит за всех этих верифицированных ботов, работающих на OpenAI?»

Но Amazon столкнулся еще с одним креативным применением языковых моделей, которое устраивает не всех: с их помощью генерируются книги, имитирующие работы других авторов. 10 января издание Wired опубликовало статью, в которой исследовательница искусственного интеллекта Мелани Митчелл рассказывала, как обнаружила на Amazon не только собственную книгу, но и другое произведение точно с таким же названием. Работа длиной 45 страниц криво пересказывала идеи из книги Митчелл и, судя по анализу текста, с 99-процентной вероятностью была сгенерирована нейросетью.

Копию этой книги с Amazon удалили после запроса журналистов, но на платформе остались похожие имитации работ других авторов. Проблема публикации пересказов чужих книг с очень похожими обложками существовала и раньше, отмечает Wired, но с развитием нейросетей количество таких работ сильно увеличилось. Пресс-секретарь Amazon Эшли Вэничек заявила: «Хотя мы разрешаем публиковать контент, сгенерированный с помощью ИИ, мы запрещаем продавать контент, который <…> в том числе разочаровывает покупателей».

Что же еще нас ждет?

Об искусственном интеллекте столько (надоедливых) новостей — а наша жизнь за год принципиально так и не поменялась Но ведь поменяется? Пробуем ответить на самые сложные вопросы о будущем ИИ

Что же еще нас ждет?

Об искусственном интеллекте столько (надоедливых) новостей — а наша жизнь за год принципиально так и не поменялась Но ведь поменяется? Пробуем ответить на самые сложные вопросы о будущем ИИ

«Медуза»

Фото на обложке: Nathan Stirk / Getty Images