banner
Дом / Блог / Раскрытие конфиденциальности
Блог

Раскрытие конфиденциальности

Jun 18, 2023Jun 18, 2023

В эпоху принятия решений на основе данных компании используют возможности машинного обучения (ML), чтобы получить ценную информацию, повысить операционную эффективность и укрепить конкурентное преимущество.

Хотя недавние разработки в области генеративного искусственного интеллекта (ИИ) повысили беспрецедентную осведомленность о возможностях ИИ/МО, они также пролили свет на основополагающую потребность в конфиденциальности и безопасности. Такие группы, как IAPP, Brookings и недавняя структура AI TRiSM от Gartner, изложили ключевые соображения для организаций, стремящихся достичь бизнес-результатов, уникальных для ИИ, без увеличения своего профиля риска.

На переднем крае этих императивов стоит безопасность модели ML. Непосредственно обращаясь к этой ключевой области, машинное обучение с сохранением конфиденциальности стало способом гарантировать, что пользователи смогут извлечь выгоду из всего потенциала приложений ML в этой все более важной области.

Модели машинного обучения — это алгоритмы, которые обрабатывают данные для получения значимой информации и принятия важных бизнес-решений. Что делает ML замечательным, так это его способность постоянно учиться и совершенствоваться. Когда модель обучается на новых и разрозненных наборах данных, она со временем становится умнее, что приводит к получению более точной и ценной информации, которая ранее была недоступна. Эти модели затем можно использовать для получения информации из данных, что называется оценкой модели или выводом.

Чтобы обеспечить наилучшие результаты, модели необходимо изучать и/или использовать на основе различных источников данных. Когда эти источники данных содержат конфиденциальную или конфиденциальную информацию, их использование для обучения или оценки/вывода модели машинного обучения вызывает серьезные проблемы конфиденциальности и безопасности. Любая уязвимость самой модели становится ответственностью для организации, использующей ее, а это означает, что эта возможность, которая обещала предоставить действенную информацию, улучшающую бизнес, теперь увеличивает профиль риска организации.

Эта проблема является одним из основных барьеров, препятствующих более широкому использованию ОД сегодня. Перед предприятиями стоит задача найти баланс между преимуществами ОД и необходимостью защитить свои интересы и соблюдать постоянно меняющиеся требования к конфиденциальности и нормативные требования.

Уязвимости в моделях машинного обучения обычно приводят к двум макрокатегориям векторов атак: инверсии модели и подмене модели.

Атаки с инверсией модели включают в себя попытку обратного проектирования самой модели к данным, на которых она была обучена — данным, которые, вероятно, являются конфиденциальными и, следовательно, ценными для злоумышленника. Сюда может входить личная информация (PII), интеллектуальная собственность (IP) и другая конфиденциальная или регулируемая информация, раскрытие которой может нанести ущерб организации.

С другой стороны, подмена модели представляет собой форму состязательного машинного обучения, при которой злоумышленник пытается обмануть модель, манипулируя входными данными таким образом, что модель принимает неверные решения, соответствующие намерениям злоумышленника. Этот процесс включает в себя тщательное наблюдение или «изучение» поведения модели и последующее изменение входных данных (часто незаметно), чтобы заставить модель принимать решения, выгодные для ее целей. Обе эти атаки нацелены на уязвимости, связанные с весами моделей, которые являются важной частью модели ML. Таким образом, острая необходимость уделять приоритетное внимание защите веса моделей была подчеркнута во время недавней дискуссии в Белом доме о рисках ИИ.

Машинное обучение, сохраняющее конфиденциальность, использует достижения в области технологий повышения конфиденциальности (PET) для устранения этих уязвимостей. ПЭТ — это семейство технологий, которые сохраняют и повышают конфиденциальность и безопасность данных на протяжении всего жизненного цикла их обработки, что уникально обеспечивает безопасное и конфиденциальное использование данных. Эти мощные технологии позволяют предприятиям шифровать конфиденциальные модели машинного обучения, запускать и/или обучать их, а также извлекать ценную информацию, устраняя при этом риск раскрытия информации. Предприятия могут безопасно использовать разрозненные источники данных, в том числе за пределами организационных границ и доменов безопасности, даже если речь идет о конкурентных интересах.