Apple почала сканувати фото з iCloud: так виявлятимуть насильство над дітьми
Компанія Apple почала сканувати фотографії, перевіряючи наявність зображень сексуального насильства над дітьми, пише Telegraph.
За словами директорки з конфіденційності Apple Джейн Хорват, компанія використовує технологічний скринінг для пошуку нелегальних зображень.
У Apple не пояснили, як саме працює алгоритм. У виданні припускають, що компанія використовує систему PhotoDNA, що порівнює зображення користувачів із базою даних заборонених знімків. Якщо виявлять акаунти із забороненими зображеннями, їх блокують.