В Apple начали проверять снимки пользователей на iCloud
- Автор
- Дата публикации
- Автор
- 963
Искусственный интеллект Apple сканирует фотографии пользователей iCloud для выявления случаев домашнего насилия.
Компания Apple начала сканировать фотографии пользователей на iCloud. Сотрудники отметили, что они ищут файлы, на которых могут быть признаки жесткого обращения с детьми, а также сексуальной эксплуатации несовершеннолетних.
Об этом на форуме CES 2020 заявила старший директор компании по вопросам конфиденциальности Джейн Хорват.
Специалистка отметила, что этим занимаются не ее коллеги, а специальная программа. "Apple использует технологию сопоставления изображений. Подобно спам-фильтрам в электронной почте наши системы используют электронные подписи для поиска подозрительных изображений. Учетные записи, которые используются для хранения таких фотографий, нарушают условия обслуживания и подлежат незамедлительному удалению", - добавила она.
При этом в компании отметили, что эта процедура началась лишь в 2019 году, об этом Apple рассказала в обновленном положении о конфиденциальности. В то же время Apple продолжает использовать ключи сквозного шифрования для защиты информации пользователей.
Как предполагает автор издания The Guardian, алгоритм Apple сканирует детали изображений и автоматически сравнивает их с контентом, который размещается на порносайтах. Тот же алгоритм может замечать "подозрительные подписи". Проверяет ли данные после этого живой сотрудник Apple — неизвестно.