Проверять ваши фото будет специальная система, которая изучает только слепки изображений, передает Tjournal.ru
Компания Apple начала проверять загруженные в облако iCloud снимки на предмет сексуального насилия над детьми.
Сканирование происходит автоматически, а при обнаружении нарушений пользователей блокируют.
По словам старшего директора по приватности Apple Джейн Хорват, удаление шифрования — «не тот способ, которым компания решает проблемы».
Однако Apple использует некоторые технологии для отслеживания сексуального насилия над детьми, отметила она.
Топ-менеджер сослалась на страницу на сайте Apple, где говорится, что для защиты детей компания использует технологию сопоставления изображений.
Компания сравнивает электронные сигнатуры фотографий с уже имеющимися в базе, чтобы найти подозрительные снимки. После этого каждое совпадение изучают индивидуально, а аккаунты с нарушениями блокируют.