Apple убрала большинство упоминаний о спорных функциях CSAM после обновления iOS 15.2

Apple убрала большинство упоминаний о спорных функциях CSAM после обновления iOS 15.2

Apple на этой неделе выпустила iOS 15.2 с множеством новых функций, включая функцию безопасности связи для приложения «Сообщения», ориентированную на защиту детей. Однако компания не включила свою вызывающую споры функцию сканирования материалов о сексуальном насилии над детьми в iCloud Photos и, похоже, стерла все упоминания о ее существовании.

Напомним, что iOS 15.2 изначально планировалась с функцией обнаружения материалов о сексуальном насилии над детьми (CSAM). В обновлении должна была быть реализована функция сканирования на устройстве, направленная на поиск материалов CSAM в библиотеке фотографий iCloud пользователя. Компания отметила, что будет делать это на устройстве для максимальной конфиденциальности. Эксперты по конфиденциальности возражал, отметив, что сама концепция сканирования библиотеки фотографий пользователя на предмет запрещенных материалов сама по себе является нарушением конфиденциальности, которое может расшириться, чтобы включить другие материалы, как только будет создан прецедент.

Джесси Холлингтон / Цифровые тенденции

«Ранее мы объявили о планах по созданию функций, направленных на защиту детей от хищников, использующих средства коммуникации для вербовки и эксплуатации детей, а также для ограничения распространения материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, групп по защите интересов, исследователей и других лиц, мы решили в ближайшие месяцы выделить дополнительное время для сбора информации и внесения улучшений, прежде чем выпускать эти критически важные функции безопасности детей », – говорится в сообщении Apple, которое ранее было добавлено к это оригинальная страница безопасности детей.

Как заметил MacRumors, с тех пор компания удалила этот сегмент со страницы и все упоминания о функции сканирования фотографий iCloud. Мы обратились в Apple за разъяснениями по этому поводу.

Apple также внесла небольшие изменения в безопасность общения в функции сообщений. Вместо того, чтобы автоматически уведомлять родителей, если ребенок младше 18 лет выбирает просмотр или отправку обнаженного изображения через приложение «Сообщения», компания теперь сняла требование об уведомлении в ответ на отзывы экспертов.

Вместо этого теперь все лица младше 18 лет будут предупреждены о том, что изображение может содержать конфиденциальные материалы, и получат объяснение того, что такое конфиденциальные фотографии и как они могут быть использованы для причинения вреда, вместо того, чтобы указывать характер самой откровенной фотографии.

Рекомендации редакции





Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *