Перейти к материалам

Apple отложила запуск системы поиска материалов с детской порнографией в телефонах

Источник: Apple

Корпорация Apple решила отложить запуск системы поиска в телефонах изображений с сексуальным насилием над детьми, которую планировалось протестировать в США. Планы запустить такие проверки вызвали критику со стороны экспертов по безопасности и правозащитников, указывавших, что Apple может создать опасный прецедент.

Корпорация заявила, что прислушалась к их мнению. «Основываясь на отзывах клиентов, групп по защите прав потребителей, экспертов и других, мы решили в ближайшие месяцы провести дополнительный сбор и анализ данных и внести улучшение перед тем, как запустить эти критически важные функции для обеспечения безопасности детей», — говорится в заявлении Apple.

О технологии поиска снимков с сексуальным насилием над детьми Apple объявила в начале августа. Предполагается, что она позволит обнаруживать противозаконный контент в iCloud.

В корпорации уверяли, что фотографии, загруженные пользователями в iCloud, не будут сканировать, а станут сопоставлять цифровые отпечатки изображений с базой данных известных изображений сексуального насилия над детьми, предоставленной Национальным центром по делам пропавших без вести и эксплуатируемых детей (NCMEC).

Если количество подозрительных фотографий будет превышать некое пороговое значение, то отчет по данному пользователю в Apple собирались проверять вручную, после чего блокировать аккаунт и передавать информацию в NCMEC. У пользователей, подчеркивали в Apple, будет возможность оспорить блокировку.

Подробнее

Apple проверит фото в айфонах и айпадах (пока только в США) в поисках материалов с детской порнографией Эксперты обвинили компанию в отказе от приватности, «чтобы сделать возможным 1984 год»

Подробнее

Apple проверит фото в айфонах и айпадах (пока только в США) в поисках материалов с детской порнографией Эксперты обвинили компанию в отказе от приватности, «чтобы сделать возможным 1984 год»

Мы не сдаемся Потому что вы с нами

Реклама