Apple скануватиме фотографії користувачів у пошуках дитячої порнографії
IT-гігант Apple буде в автоматичному режимі сканувати фотографії користувачів у пошуках знімків, що показують сексуальне насильство над дітьми. Як повідомляється на сайті компанії, ця «амбітна» і «інноваційна» програма щодо захисту неповнолітніх буде реалізована з повним урахуванням конфіденційності користувачів. Однак IT-експерти вже називають ініціативу небезпечним прецедентом, а технології в майбутньому пророкують використання у політичних цілях.
Як стверджує Apple, тепер пристрої на iOS і iPadOS - тобто мобільні телефони та планшети - будуть порівнювати фотографії користувачів із зображеннями з бази даних американського центру, що займається пошуком зниклих без вісти і експлуатованих дітей (NCMEC). Аналіз планується виробляти на пристроях, а порівнювати навіть не файли, а їх хеш-суми, тобто цифрові відбитки.
У разі, якщо кількість фотографій, відзначених алгоритмом, перевищить критичне значення (яке саме - не уточнюється), в справу включаться співробітники Apple. Вони вручну перевірять результати машинного аналізу і зможуть відключити аккаунт користувача, а також відправити інформацію про нього в центр NCMEC. Блокування можна буде оскаржити. Яким буде взаємодія з національними органами щодо захисту дітей в інших країнах, невідомо.
В анонсі Apple неодноразово наголошує на збереженні приватності користувачів. Одна з найбільших IT-компаній в світі, пристроями якою користуються більше мільярда людей, зазначає, що не зможе отримати доступ до інших зображень клієнтів навіть при «червоному» прапорі алгоритму. Шанс помилки системи, про тестування якої на великому числі користувачів також не повідомляється, дорівнює одному з трьох мільярдів. Саму проривну технологію Apple представила не в окремому прес-релізі, а лише згадала серед інших заходів щодо захисту дітей - від маскування сумнівних фотографій до допомоги неповнолітнім у «небезпечних» ситуаціях у мережі за допомогою Siri.
На пристрої в США планується встановити програмне забезпечення neuralMatch, яке і буде сканувати фотографії і шукати матеріали з насильством над дітьми. Систему вже навчили на 200 тисячах зображень.
Apple, як і інші компанії, що надають послуги хмарного зберігання інформації, перевіряли бази фотографій на наявність незаконних зображень і раніше. Однак до цього мова йшла тільки про знімках, що зберігаються на віддалених серверах. Часто для цього використовується система PhotoDNA, спрямована на пошук свідоцтв насильства над дітьми. Як стверджує CNN, система дійсно допомогла виявити і зловити багатьох злочинців.
Інформація про нову систему Apple викликала невдоволення в IT-співтоваристві. Саме ця компанія однією з перших почала масово вводити наскрізне, або кінцеве, шифрування. Доступ до повідомлень не має навіть сам розробник алгоритму.
У 2016 році Apple зайняла принципову позицію в питаннях захисту приватності користувачів в суперечці з ФБР. У Купертино відмовилися надати спецслужбам допомогу у зломі телефону стрілка в Каліфорнії, який вбив 14 людей. Суд встав на сторону IT-компанії.
У разі, якщо технологія буде застосовуватися іншими країнами, ситуація з правами людини може погіршиться, попереджають фахівці. «Що захоче заблокувати Китай?», - задається питанням спеціалісти.