Apple
Photo: Ruslan Gurzhiy/SlavicSac.com

Apple создает технологию, чтобы защитить детей и ограничить распространение материалов о сексуальном насилии (Child Sexual Abuse Material, CSAM).

Согласно информации от Apple, это будут новые функции безопасности детей в трех областях, разработанные в сотрудничестве с экспертами по безопасности детей:1) Новые средства коммуникации позволят родителям быть более информированными и помогать своим детям ориентироваться в общении в Интернете. Приложение «Сообщения» будет использовать машинное обучение на устройстве, чтобы предупреждать о конфиденциальном контенте, сохраняя при этом частные сообщения нечитаемыми для Apple.

2) iOS и iPadOS будут использовать новые приложения криптографии, чтобы ограничить распространение CSAM в Интернете, при этом обеспечивая конфиденциальность пользователей.

3) Обновление Siri и поиска предоставят родителям и детям расширенную информацию и помогут в случае возникновения небезопасных ситуаций. Siri и Search также будут вмешиваться, когда пользователи попытаются искать темы, связанные с CSAM.

Эти функции появятся в этом году в обновлениях iOS 15, iPadOS 15, watchOS 8 и macOS Monterey, сообщает Apple.
Приложение «Сообщения» (The Messages app) добавит новые инструменты для предупреждения детей и их родителей о получении или отправке фотографий откровенно сексуального характера. При получении такого контента фотография будет размытой. В качестве дополнительной меры предосторожности ребенку будет сообщено, что его родители получат сообщение, если он его решит посмотреть. Аналогичные меры защиты будут доступны, если ребенок пытается отправить фотографии откровенно сексуального характера. Ребенок будет предупрежден перед отправкой фотографии, что родители получат сообщение, если ребенок решит отправить фото.

Указывается, что “Сообщения” использует машинное обучение на устройстве для анализа прикрепленных изображений и определения сексуального характера фотографии таким образом, что Apple не получает доступа к самим сообщениям.