НовостиАpple проверит пользовательские фото в iCloud на наличие детской порнографии
Фукнцию протестируют только в США
Apple протестирует в США новую технологию NeuralMatch для операционных систем iOS и iPadOS, которая обнаруживает в iCloud изображения с сексуализированным насилием над детьми. Об этом говорится на сайте корпорации. Если система установит, что в телефоне хранятся незаконные изображения, она предупредит сотрудников Apple, которые смогут обратиться в полицию. Помимо этого, если на телефон ребёнка пришлют фотографию неподобающего характера, она станет размытой, а пользователю поступит предупреждение.
В Apple отметили, что новая программа соответствует правилам конфиденциальности и не будет сканировать фотографии пользователей. NeuralMatch позволит сопоставить цифровые отпечатки фотографий пользователей с базой данных изображений сескуализированного насилия.
«iOS и iPadOS будут использовать новые криптографические приложения, чтобы ограничить распространение материалов с сексуализированным насилием над детьми в Сети с учётом приватности пользователей, — заявили в корпорации. — Приложение Messages будет использовать встроенные в устройство программы машинного обучения, чтобы предупреждать о чувствительном контенте, при этом сохраняя недоступность прочтения личной переписки для компании Apple».
Однако эксперты настороженно отнеслись к инициативе Apple. «Подобный инструмент может стать благом для поиска детской порнографии в телефонах людей. Но представьте, что он может сделать в руках авторитарного правительства?» — считает доцент Института информационной безопасности Джонса Хопкинса Мэтью Грин.
ОБЛОЖКА: Unsplash