newsData
newsSection
Apple планує п’ять нових комп’ютерів Mac у 2022 році
newsBreadCrumbs
Блог

Новий інструмент Apple NeuralMatch.

  Apple починає боротися проти обміну зображеннями дитячої порнографії за допомогою нового інструменту, який нібито захищає конфіденційність. Щоб переконатись в цьому, компанія детально описала роботу своєї системи.
  Незабаром Apple розгорне на всіх своїх гаджетах новий інструмент, присвячений боротьбі з дитячою порнографією. Отримавши назву NeuralMatch, цей інструмент аналізуватиме фотографії, завантажені в iCloud (рішення для віддаленого зберігання Apple), щоб знайти можливі знімки дитячої порнографії та, за необхідносі, попередити владу.
  За словами спеціалістів з питань захисту персональних даних, цей інструмент "розроблений з повагою до конфіденційності користувачів", оголошує Apple на своєму сайті. Щоб запевнити свій підхід, компанія також дає деякі пояснення щодо технічної роботи NeuralMatch.

Як працює NeuralMatch?

  Для виявлення злочинних фотографій Apple порівнює електронний підпис зображення з тими, що перелічені в базі даних, наданій Національним центром зниклих та експлуатованих дітей (NCME) та американською асоціацією захисту прав дітей.
  Коли власник iPhone або iPad збирається завантажити фотографію  в iCloud, інструмент порівнює підпис фотографії з базою даних. Якщо підпис фотографії збігається із зображенням, наведеним у базі даних, генерується своєрідний зашифрований "квиток попередження". За межами певного порогу накопичених квитків, Apple надсилає попередження, яке зможе проаналізувати фотографії, потенційно заблокувати обліковий запис порушника та попередити NCME.
  Apple пояснює, що для того щоб уникнути помилкових результатів, базу даних, надану NCME, завантажують на кожен пристрій, а потім шифрують, щоб запобігти можливим зловживанням. Тому виявлення відбувається в локальній пам’яті телефону, а не в хмарі Apple, і відбувається лише тоді, коли фотографію завантажено в iCloud. Якщо синхронізацію не ввімкнено, Apple не виконуватиме сканування.

Ризикована охорона вмісту

  Замість того, щоб порівнювати необроблений вміст зображення за допомогою сканування вмісту, телефон буде "аналізувати зображення та перетворювати його на унікальне число, характерне для цього зображення”. Таке перетворення зображення у двійковий код дозволяє телефону швидко виконати порівняння з базою даних та уникне передачі занадто великої кількості інформації про вміст зображень. "Apple нічого не дізнається про зображення, які не відповідають базі даних", - пояснює компанія у своїй технічній документації. NeuralMatch є достатньо потужним для виявлення незначних змін між двома фотографіями (обрізання, падіння якості) та пов'язує їх з тим самим криптографічним підписом.
  Нарешті, Apple запевняє, що якщо поріг "оповіщення про квитки" не буде перевищено, компанія не матиме доступу до їх вмісту. Apple не вказує, з якої кількості порушень буде перевірятися обліковий запис, але стверджує, що система має лише "один на трильйон ризик" створення помилкових спрацьовувань. У разі помилки власники можуть подати апеляцію щодо призупинення дії облікових записів.
  Криптоаналіз дитячої порнографії не зовсім новий, Apple вже проводила подібні перевірки фотографій, що зберігаються на iCloud. Однак NeuralMatch турбує фахівців із захисту даних, оскільки він працює локально по телефону, відкриваючи двері для потенційного зловживання. Фонд електронних кордонів (EFF), відома неурядова організація, що займається захистом прав в Інтернеті, називає цей інструмент "бекдором", який може бути використаний авторитарними урядами для виявлення потенційно ворожого змісту.
Новини Apple
Made on
Tilda