Помните, Apple хотела сканировать фотографии пользователей, чтобы искать там детское порно? Компанию так сильно раскритиковали, что она отказалась от этой идеи
Корпорация Apple окончательно отказалась от идеи проверять фото на устройствах пользователей на предмет наличия детской порнографии. Полтора года назад, когда стало известно о планах запустить такую систему, в IT-индустрии встретили анонс критикой Apple и обвинениями в потенциальном нарушении конфиденциальности. Теперь корпорация признает, что дети могут быть защищены и без компаний, специально проверяющих личную информацию.
О том, что Apple собирается сканировать фотографии пользователей на их устройствах, чтобы выявлять случаи жестокого обращения с детьми, впервые стало известно 5 августа 2021 года из публикации Financial Times. Вскоре Apple подтвердила такие планы.
Предполагалось, что новая система будет сверять снимки пользователей с государственной базой данных подозрительных материалов — и, если бы алгоритм обнаруживал совпадение, отправлять сигнал сотрудникам Apple. Они бы вручную проводили проверку изображения на предмет нарушения прав детей и в случае необходимости связывались с полицией.
Анонс такой функции вызвал крупный резонанс в IT-сообществе сразу по нескольким причинам. Во-первых, специалисты и обычные пользователи устройств Apple начали опасаться злоупотребления функцией — точно ли она будет использоваться только для наказания тех, кто жестоко обращается с детьми? И не откроет ли Apple полицейским и спецслужбам доступ к данным законопослушных и ни в чем не подозреваемых граждан? А что может произойти, если такая функция попадет в руки мошенников? Эдвард Сноуден напрямую назвал нововведение «развертыванием массовой слежки».
Еще одна важная причина для беспокойства — отсутствие понимания, как именно алгоритм будет отличать детскую порнографию от условного фото детей, которое у себя дома сделал их родитель? Многим добавило тревоги то, что некоторые исследователи даже показали, как можно обмануть подобное программное обеспечение — и выдать одно фото за другое.
Apple пришлось несколько раз отвечать на обвинения, повторяя, что ее главная цель — защитить детей от тех, кто жестоко с ними обращается. А также ограничить распространение материалов с сексуализированным насилием над несовершеннолетними. Сначала корпорация объяснила, как именно будет работать проверка фото и как при этом процессе будут защищены персональные данные пользователей, а затем выпустила подробный FAQ. Отвечая на популярные вопросы, компания в том числе подчеркнула: она не собиралась сканировать все фотографии всех пользователей; алгоритм сделан так, что родителям с безобидными фотографиями их детей в ванной ничего не угрожает; доступ правительству она предоставлять не собирается, как и использовать технологию в других целях.
Объяснения со стороны Apple не помогли ей справиться с негативной реакцией IT-сообщества: в начале сентября 2021 года она объявила о приостановке программы. На тот момент это не означало полную отмену планов — в Apple сообщили, что им требуется дополнительное время на доработку функции. Впрочем, что конкретно компания собиралась исправить и когда намеревалась рассказать об изменениях, не уточнялось.
В декабре того же года СМИ обратили внимание, что с сайта Apple пропали все ссылки и упоминания технологии сканирования фото. Представитель компании Шейн Бауер это подтвердил, назвал ПО «сырым» и уточнил, что компания пока не отказалась от планов по его внедрению и работает над ним с учетом замечаний специалистов и правозащитников.
В итоге, спустя полтора года после анонса, 7 декабря 2022 года Apple объявила, что полностью отказалась от внедрения технологии. В заявлении говорится, что компания пошла на это решение в результате консультаций с экспертами:
Дети могут быть защищены без компаний, проверяющих личные данные. Мы продолжим работать с властями, защитниками прав детей и другими компаниями, чтобы защищать молодых людей и сохранять их право на неприкосновенность частной жизни — а также чтобы сделать интернет безопаснее для детей и для нас всех.
«Сексуализированное насилие над детьми можно предотвратить до того, как оно случится. Это то [направление], в которое мы вкладываем нашу энергию», — заявил в интервью The Wall Street Journal старший вице-президент Apple по разработке ПО Крейг Федериги. Он имел в виду уже работающую защиту детей от обнаженных фото и видео через iMessage, а также новые функции по усилению безопасности, анонсированные Apple 7 декабря и планируемые к запуску в начале 2023 года:
- новую возможность защитить Apple ID от мошенников — с использованием физических ключей безопасности вместо кода подтверждения с другого устройства;
- возможность проверить, что вы общаетесь в iMessage именно с тем человеком, с которым хотели, — можно запросить проверку контактного ключа. Код, который отобразится на обоих устройствах, можно сверить лично или во время звонка, например, по FaceTime;
- расширение защиты данных iCloud: если сейчас Apple использует сквозное шифрование для 14 типов пользовательских данных (например, пароли и данные о здоровье), то теперь собирается распространить его на 23 категории. Среди них — «Фото», «Заметки» и «Напоминания», iCloud Drive, закладки в Safari и облачные резервные копии.
Последним нововведением Apple уже недовольны спецслужбы — ФБР в заявлении для Washington Post сказало, что «глубоко обеспокоено угрозами, которые несет сквозное шифрование и шифрование с доступом только для пользователей». Такие меры Apple, по мнению бюро, усложняют его работу по «защите американского народа от преступных действий, начиная от кибератак и насилия в отношении детей и заканчивая наркоторговлей, организованной преступностью и терроризмом». ФБР также отметило, что спецслужбам нужен преднамеренный «законный доступ» к персональным данным пользователей.
Проблема распространения контента о жестоком обращении над детьми, в том числе сексуализированном насилии, остается реальной и усугубляется — но очевидно, что в будущем от правительств и IT-компаний ждут куда менее спорного способа ее решения.