Российские власти рассматривают возможность введения обязательной маркировки контента, созданного с помощью искусственного интеллекта (ИИ), а также уголовной ответственности за распространение дипфейков без согласия человека. Эти меры направлены на борьбу с фейками и защиту пользователей от недостоверной информации. Однако эксперты сомневаются в эффективности таких мер, поскольку злоумышленники вряд ли будут соблюдать новые правила.
Маркировка ИИ-контента: что предлагают власти?
Новые законодательные инициативы
Минцифры и Институт социально-экономического анализа и программ развития (ИСАПР) предложили ввести обязательную маркировку для всего контента, созданного нейросетями. Нарушителей могут привлекать к ответственности, аналогичной наказаниям за незаконную обработку персональных данных.
Александр Шойтов, заместитель главы Минцифры, отметил, что в России пока нет чётких юридических определений для терминов:
- «дипфейк» (поддельные изображения и видео),
- «синтетический контент» (сгенерированный ИИ),
- «искусственный интеллект».
До введения новых норм необходимо закрепить правовые механизмы и разработать технические средства для выявления такого контента.
Уголовная ответственность за дипфейки
Власти также обсуждают уголовное наказание за создание и распространение дипфейков без согласия людей, чьи изображения или голоса используются. Однако Роман Душкин, главный архитектор ИИ-систем НИЯУ «МИФИ», считает, что существующих законов о цифровом мошенничестве достаточно, но требуется комплексный подход к их применению.
Проблемы с маркировкой: будут ли нарушители соблюдать закон?
Мнение экспертов
- Михаил Копнин (DCLogic):
«Те, кто создаёт вредоносный ИИ-контент, не станут его маркировать. Маркировка эффективна только для добросовестных создателей». - Александр Туник («Рейтинг Рунета»):
«Злоумышленники вряд ли будут соблюдать правила, поэтому нужны дополнительные меры контроля».
Технические сложности
- Андрей Шуриков (ИСАПР):
«Пока нет способа на 100% отличить промаркированный контент от немаркированного, но часть фейков можно выявлять». - Денис Кучеров (Minerva Result):
«Некоторые нейросети оставляют скрытую разметку, которую можно обнаружить при анализе кода».
Эксперты предлагают наказывать распространителей дипфейков, а не только их создателей, поскольку найти первоисточник технически сложно.
Какой процент контента в интернете создан ИИ?
Согласно исследованию Ahrefs (апрель 2025 года):
- 2,5% веб-страниц — полностью сгенерированы ИИ,
- 25,8% — написаны людьми,
- 74,2% — смешанный контент (часть создана нейросетями, часть — авторами).
87% контент-маркетологов признались, что используют ИИ для подготовки материалов, особенно в корпоративных блогах.
Вывод: что ждёт создателей ИИ-контента в России?
- Обязательная маркировка — скорее всего, будет введена для юридических и физических лиц.
- Штрафы и уголовная ответственность — возможны за распространение дипфейков без согласия.
- Технические решения — разработка систем автоматического обнаружения ИИ-контента.
- Ответственность платформ — соцсети и медиа могут обязать удалять непромаркированный контент.
Эти меры направлены на борьбу с дезинформацией, но их эффективность будет зависеть от технических возможностей и исполнения закона.