НовостиАpple проверит пользовательские фото в iCloud на наличие детской порнографии
Фукнцию протестируют только в США
Apple протестирует в США новую технологию NeuralMatch для операционных систем iOS и iPadOS, которая обнаруживает в iCloud изображения с сексуализированным насилием над детьми. Об этом говорится на сайте корпорации. Если система установит, что в телефоне хранятся незаконные изображения, она предупредит сотрудников Apple, которые смогут обратиться в полицию. Помимо этого, если на телефон ребёнка пришлют фотографию неподобающего характера, она станет размытой, а пользователю поступит предупреждение.
В Apple отметили, что новая программа соответствует правилам конфиденциальности и не будет сканировать фотографии пользователей. NeuralMatch позволит сопоставить цифровые отпечатки фотографий пользователей с базой данных изображений сескуализированного насилия.
«iOS и iPadOS будут использовать новые криптографические приложения, чтобы ограничить распространение материалов с сексуализированным насилием над детьми в Сети с учётом приватности пользователей, — заявили в корпорации. — Приложение Messages будет использовать встроенные в устройство программы машинного обучения, чтобы предупреждать о чувствительном контенте, при этом сохраняя недоступность прочтения личной переписки для компании Apple».
Однако эксперты настороженно отнеслись к инициативе Apple. «Подобный инструмент может стать благом для поиска детской порнографии в телефонах людей. Но представьте, что он может сделать в руках авторитарного правительства?» — считает доцент Института информационной безопасности Джонса Хопкинса Мэтью Грин.
This sort of tool can be a boon for finding child pornography in people’s phones. But imagine what it could do in the hands of an authoritarian government? https://t.co/nB8S6hmLE3
— Matthew Green (@matthew_d_green) August 5, 2021
ОБЛОЖКА: Unsplash