Компания Apple подтвердила, что вводит новую систему распознавания сомнительного контента на гаджетах пользователей. Теперь специальные алгоритмы будут проверять фото в iCloud на содержание детского порно и контента, связанного с сексуальным насилием над детьми (CSAM).
Как сообщают представители Apple, прежде чем изображение будет загружено и сохранено на iCloud, технология будет искать совпадения с уже внесенным в базу контентом CSAM. Если алгоритм найдет совпадения, фотография будет отправлена модератору-человек, который оценит ее, отметит в базе и обратится в правоохранительные органы. В дальнейшем учетная запись будет отключена от системы.
В компании также заявляют, что технология сможет отслеживать отредактированный контент. Базы данных с изображениями сексуального насилия над детьми Apple предоставил Национальный центр США по проблемам пропавших и эксплуатируемых детей (NCMEC).
Представители компании заявляют, что новая технология обладает преимуществом в плане конфиденциальности по сравнению с уже существующими методиками отслеживания нежелательного контента. По их словам, система настолько точна, что имеется лишь один шанса из триллиона, что за год будет неверно отмечена хотя бы одна учетная запись.
Однако эксперты опасаются, что эта технология может быть использована для слежки за гражданами. Исследователь кибербезопасности из Университета Джона Хопкинса Мэтью Грин в беседе с BBC выразил глубокую озабоченность инициативой Apple:
«Независимо от того, каковы долгосрочные планы Apple, они послали очень четкий сигнал. По их (очень влиятельному) мнению, безопасно создавать системы, которые сканируют телефоны пользователей на предмет запрещенного контента.
Окажутся ли они правы или неправы в этом вопросе, вряд ли имеет значение. Это разрушит плотину — правительства потребуют этого от всех».
Нововведение появится в свежих версиях iOS и iPadOS осенью 2021 года.