Современные технологии обработки изображений и видео активно используют метрики качества — числовые показатели, оценивающие реалистичность и соответствие стандартам. Однако эти метрики уязвимы к состязательным атакам (adversarial attacks), когда злоумышленники искусственно завышают оценки, обманывая алгоритмы.
Учёные факультета вычислительной математики и кибернетики (ВМК) МГУ разработали инновационный метод для оценки устойчивости изображений к таким атакам. Их подход включает индекс устойчивости (IRI) и нейросетевую модель (IRAA), предсказывающую восприимчивость визуального контента к манипуляциям. Это открытие способно повысить надёжность систем компьютерного зрения, обработки изображений и защиты данных.
Проблема атак на метрики качества изображений
Метрики качества играют ключевую роль в:
- Генерации и улучшении изображений (GAN, нейросетевые фильтры).
- Компьютерном зрении (распознавание объектов, автономные системы).
- Мультимедийных технологиях (стриминговые платформы, видеокодеки).
Однако злоумышленники могут манипулировать метриками, создавая изображения, которые:
✔ Выглядят плохо для человека, но получают высокие оценки у алгоритмов.
✔ Используются для фальсификации данных, мошеннической рекламы или взлома систем безопасности.
Примеры атак на метрики:
- FGSM (Fast Gradient Sign Method) – быстрое внесение искажений.
- IFGSM (Iterative FGSM) – итеративное усиление атаки.
- UAP (Universal Adversarial Perturbations) – универсальные возмущения.
- FACPA (Feature-Adversarial Computational Photography Attack) – атаки на вычислительную фотографию.
Решение от учёных МГУ: индекс устойчивости (IRI) и модель IRAA
Сотрудники ВМК МГУ предложили два ключевых инструмента для борьбы с атаками:
1. Индекс устойчивости изображений (IRI)
Позволяет количественно оценить, насколько легко можно обмануть метрику качества, изменяя изображение. Чем выше IRI, тем устойчивее изображение к атакам.
2. Нейросетевая модель IRAA (Image Robustness to Adversarial Attacks)
Использует машинное обучение, чтобы предсказать:
- Какие изображения наиболее уязвимы.
- Какие метрики легче всего обмануть.
Точность предсказаний модели IRAA достигает 90,6%, что делает её мощным инструментом для анализа.
Результаты тестирования
Учёные проверили метод на популярных датасетах:
- MS COCO (распознавание объектов).
- LIVE in the Wild (естественные искажения).
- TID2013 (техногенные артефакты).
- PIPAL (фотореалистичные изображения).
Ключевые выводы:
🔹 Изображения с шумом и размытием более уязвимы к атакам.
🔹 Высококачественные изображения демонстрируют устойчивость.
🔹 Некоторые метрики (например, MDTVSFA) легче обмануть, чем другие.
Применение технологии
Разработка учёных МГУ может использоваться в:
1. Компьютерном зрении и ИИ
- Повышение надёжности автономных систем (беспилотники, роботы).
- Защита алгоритмов распознавания лиц от подделок.
2. Защите данных и медиа
- Борьба с фейковыми изображениями и глубокими подделками (Deepfakes).
- Контроль качества в рекламе и соцсетях.
3. Мультимедиа и видеотехнологиях
- Улучшение алгоритмов сжатия и потоковой передачи (Netflix, YouTube).
- Объективная оценка качества в фото- и видеоредакторах.
Заключение
Исследование ВМК МГУ открывает новые возможности для защиты визуального контента от манипуляций. Метод IRI + IRAA позволяет заранее выявлять уязвимости и повышать устойчивость алгоритмов обработки изображений.
📌 Публикация: Работа представлена на конференции EUSIPCO 2024.
🔹 Перспективы: Внедрение технологии в системы безопасности, медиааналитику и нейросетевые алгоритмы сделает компьютерное зрение более надёжным и защищённым от злоупотреблений.