Американская компания Apple планирует устанавливать на iPhone программное обеспечение по выявлению изображений жестокого обращения с детьми и порнографии.
Об этом УНН сообщает со ссылкой на Financial Times.
На первом этапе нововведение будет распространено только на жителей США.
Новая система Apple называется neuralMatch. Как сообщается, программный инструмент уже был представлен на встрече некоторым ученым, а о своих планах корпорация может объявить уже на этой неделе. Алгоритм neuralMatch был обучен на 200 000 изображениях сексуального насилия, собранных Национальным центром пропавших без вести и детей, переживших експлаутацию.
Система будет непрерывно сканировать фотографии и видео пользователей iPhone и сравнивать их с имеющейся базой. Благодаря новой системе, каждой фотографии будет присваиваться “ваучер безопасности”, на котором будет обозначено, является ли изображение подозрительным. Как только определенное количество снимков будет получать отметку подозрительных, Apple позволит расшифровать все из них. Как известно, при обнаружении незаконных фото или видео, сведения об этом будут передаваться соответствующим органам.
Таким образом, Apple пытается найти компромисс между защитой частной жизни своих пользователей и требованиями власти защитить детей от злоумышленников.
Однако эксперты не разделяют этой инициативы корпорации.
“Это абсолютно ужасная идея, потому что она приведет к массовому слежению за нашими телефонами и ноутбуками”, — заявил профессор инженерной безопасности Кембриджского университета Росс Андерсон.
В сообщении отмечается, что в настоящее время neuralMatch умеет распознавать сексуальное насилие над детьми, однако впоследствии его можно адаптировать для сканирования любых других изображений и текста.