Apple будет сканировать фото в iCloud на предмет сексуального насилия над детьми

Проверять ваши фото будет специальная система, которая изучает только слепки изображений, передает Tjournal.ru

Фотосток: pixabay.com

Компания Apple начала проверять загруженные в облако iCloud снимки на предмет сексуального насилия над детьми.

Сканирование происходит автоматически, а при обнаружении нарушений пользователей блокируют. 

По словам старшего директора по приватности Apple Джейн Хорват, удаление шифрования — «не тот способ, которым компания решает проблемы».

Однако Apple использует некоторые технологии для отслеживания сексуального насилия над детьми, отметила она.

Топ-менеджер сослалась на страницу на сайте Apple, где говорится, что для защиты детей компания использует технологию сопоставления изображений.

Компания сравнивает электронные сигнатуры фотографий с уже имеющимися в базе, чтобы найти подозрительные снимки. После этого каждое совпадение изучают индивидуально, а аккаунты с нарушениями блокируют.