У iOS 15 Apple впровадить механізм відстеження фото. До роботи системи є питання
ІІ навчать виявляти фоточки з дитячою порнографією та насильством
Вчора по мережі прокотилася новина, що Apple запустить в iOS 15 систему виявлення CSAM (Child Sexual Abuse Material). По суті, компанія хоче навчити штучний інтелект знаходити фоточки зі сценами насильства над дітьми та дитячу порнографію. І начебто мета блага, але знайшлися ті, кого ця ініціатива не втішила, і вони передбачають можливе зневажання умов збереження конфіденційності.
Читати також: Боротьба екосистем: Samsung проти Apple
Очікується, що штучний інтелект зможе знаходити у iCloud Photos фотографії непристойного змісту. Тобто. штучний розум сам знаходитиме знімки і видаватиме, власник якого пристрою «балується» таким контентом. Усю інформацію про власника пристрою згодом буде передано до правоохоронних органів.
Виходить, що Apple буде ритися в фото своїх користувачів, нехай і задіявши для цього посередника? Але низка експертів бачать у цьому загрозу приватності та вважають, що повністю виключити людський фактор не вдасться. Вся справа в тому, що не можна виключати того, що ІІ помилиться і прийме за фото з сексуальним насильством якийсь невинний знімок. Ось тут і потрібне буде око людське, яке зможе правильно відсортувати хороші знімки від поганих.
Читати також: Apple не відповідає взаємністю користувачам з Китаю
Ось і виходить, що людський фактор виключити не можна буде. І хто знає, які ще приватні фотографії потраплять до числа відібраних і чи не контролюватиме компанія й інший контент. Не можна виключати і те, що урядові органи не зможуть натиснути на Apple, щоб використати її систему відстеження у своїх інтересах.
Підписуйтесь на Andro News у Telegram , « ВКонтакті » та YouTube -канал.
Джерело:9to5mac