В iOS 15 Apple внедрит механизм отслеживания фото. К работе системы есть вопросы
ИИ научат обнаруживать фоточки с детской порнографией и насилием
Вчера по сети прокатилась новость, что Apple запустит в iOS 15 систему обнаружения CSAM (Child Sexual Abuse Material). По сути компания хочет обучить искусственный интеллект находить фоточки со сценами насилия над детьми и детскую порнографию. И вроде бы цель благая, но нашлись те, кого эта инициатива не обрадовала, и они предвидят возможное попирание условий сохранения конфиденциальности.
Читать также: Борьба экосистем: Samsung против Apple
Ожидается, что искусственный интеллект сможет находить в iCloud Photos фотографии непристойного содержания. Т.е. искусственный разум будет сам находить снимки и выдавать, владелец какого устройства «балуется» таким контентом. Вся информация о собственнике устройства впоследствии будет передана в правоохранительные органы.
Выходит, что Apple будет рыться в фоточках своих пользователей, пусть и задействуя для этого посредника? Но ряд экспертов видят в этом угрозу приватности и считают, что полностью исключить человеческий фактор не удастся. Все дело в том, что нельзя исключать того, что ИИ ошибется и примет за фоточку с сексуальным насилием какой-то безобидный снимок. Вот тут и нужен будет глаз человеческий, который сможет правильно отсортировать хорошие снимки от плохих.
Читать также: Apple не отвечает взаимностью пользователям из Китая
Вот и выходит, что человеческий фактор полностью исключить нельзя будет. И кто знает, какие еще приватные фотографии попадут в число отобранных и не будет ли компания контролировать и другой контент. Нельзя исключать и того, что правительственные органы не смогут надавить на Apple, чтобы использовать ее систему отслеживания в своих интересах.
Подписывайтесь на Andro News в Telegram, «ВКонтакте» и YouTube-канал.
Источник: 9to5mac