ИИ под надзором. Что меняет новый законопроект о нейросетях
17 марта 2026 года на публичное обсуждение был вынесен проект Федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта». Документ, который должен вступить в силу 1 сентября 2027 года, обещает стать точкой бифуркации для всей отрасли.
В материале для aif.ru секретарь СЖР, доцент журфака МГУ Роман Серебряный сделал разбор и проанализировал 20 статей законопроекта, сравнил его с подходами ЕС, США и Китая.
Российский рынок ИИ долгое время существовал в режиме «мягкого права» — этические кодексы, стратегии, рекомендации. Но экспоненциальный рост генеративных нейросетей, дипфейков и зависимость критической инфраструктуры от зарубежных решений потребовали жестких рамок.
Разработчики жалуются на правовую неопределенность: можно ли обучать модели на чужих текстах? Кто ответит за совет нейросети, который привел к убыткам? А государство, в свою очередь, обеспокоено суверенитетом: как не допустить ситуации, когда ключевые информационные системы будут работать на чипах и алгоритмах из недружественных стран.
Новый законопроект — это попытка дать ответы на все эти вопросы.
«Доверенные модели» и суверенитет
Ключевое нововведение — институт доверенных моделей искусственного интеллекта (статья 8). Если упрощать — это «белый список» ИИ-решений, которые допускаются в государственные информационные системы и на объекты критической информационной инфраструктуры (КИИ). Попасть туда можно только при соблюдении трех условий:
Безопасность — подтверждение со стороны ФСБ и ФСТЭК (Федеральная служба безопасности и Федеральная служба по техническому и экспортному контролю). Это означает, что модель проверили на наличие уязвимостей, недекларированных возможностей и устойчивость к взлому.
Локализация данных — вся обработка информации должна происходить исключительно на территории РФ.
Качество — соответствие отраслевым стандартам (для медицины — требования Минздрава, для финансов — ЦБ и т. д.).
Плюс для государства: гарантия, что чиновники и стратегические предприятия не попадут в зависимость от санкционных сервисов.
Риск для бизнеса: процедура сертификации в силовых ведомствах традиционно длительная и дорогая. Для стартапов, создающих простые чат-боты для госсектора, это может стать непреодолимым барьером. Кроме того, законопроект пока не делит ИИ-системы по степени риска (как это сделано в Европе). Получается, что и система управления городским транспортом, и голосовой помощник в регистратуре поликлиники могут быть приравнены к объектам повышенного внимания.
Авторское право
Пожалуй, самая смелая и профессионально проработанная часть законопроекта — (статья 13). В ней фактически признается, что объекты, созданные нейросетью, могут быть объектами авторского права.
Раньше в российском правоприменении была позиция: автором может быть только человек. Суды США идут по тому же пути, отказывая ИИ в статусе автора. Но разработчики российского законопроекта предложили элегантное решение: значение имеет не «кто нажал на кнопку», а оригинальность результата. Если сгенерированная картинка или текст обладают творческой составляющей — они охраняются.
Кроме того, в законе легализовано «извлечение данных для обучения». Теперь российский разработчик может спокойно использовать открытые тексты, изображения и базы данных для обучения своей модели, если у него был правомерный доступ к этим материалам (например, открытый интернет или легально купленная база). Это снимает тот вал судебных исков, который сегодня захлестнул американских разработчиков (New York Times против OpenAI и другие).
Однако есть нюанс: владельцы сервисов обязаны «гарантировать отсутствие нарушений прав интеллектуальной собственности третьих лиц» при разработке модели. Как это гарантировать, если модель обучалась на миллиардах параметров из открытых источников, — вопрос, который закон оставляет без ответа.
Маркировка дипфейков
Статья 12 обязывает владельцев сервисов маркировать синтезированный контент. Предполагается, что предупреждение «Создано ИИ» должно быть и в человекочитаемом виде, и в машиночитаемом (чтобы специальные сервисы могли автоматически фильтровать фейки).
Но здесь скрыта опасность. Часть 5 статьи 12 позволяет пользователю отказаться от получения человекочитаемой маркировки, если это предусмотрено договором.
Представьте: вы регистрируетесь в сервисе генерации видео, ставите галочку в длинном пользовательском соглашении, и всё — все ваши дипфейки выходят в свет без надписи «создано ИИ». Этим смогут воспользоваться мошенники и производители фейковых новостей. В текущей редакции норма выглядит как попытка переложить ответственность за дезинформацию с платформы на пользователя, что противоречит мировой практике ужесточения правил маркировки.
Кто ответит за ошибку нейросети?
Статья 11 — это попытка разделить ответственность между разработчиком, оператором и пользователем. Законодатель исходил из того, что нельзя возлагать всю вину на того, кто создал модель, если ее использовали неправильно.
Ответственность наступает, если лицо «заведомо знало или должно было знать» о возможности получить незаконный результат.
Для юристов это «золотая жила» споров. Доказать, что разработчик чат-бота должен был знать, что его модель используют для создания вредоносного кода, на практике почти невозможно. В отличие от Европы, где для высокорисковых систем действует презумпция ответственности оператора, в российском проекте бремя доказывания лежит на потерпевшем.
Есть и плюс: оператор, возместивший вред, может предъявить регрессный иск к разработчику, если докажет, что проблема была в конструктивном недостатке модели, который нельзя было выявить при обычной проверке.
Льготы для суперкомпьютеров
Статья 20 — это то, за что бизнес готов аплодировать стоя. Государство предлагает мощный пакет поддержки для центров обработки данных (ЦОД) и суперкомпьютеров, включенных в специальный перечень.
Разработчики получат:
Льготное техприсоединение к электросетям (а это одна из главных статей расходов для дата-центров).
Сниженные тарифы на электроэнергию (ниже, чем для промышленных потребителей).
Налоговые льготы и упрощенный порядок получения разрешительной документации.
Это прямой ответ на проблему дефицита вычислительных мощностей. Без своих «железок» создавать большие фундаментальные модели невозможно. Здесь государство говорит: «Мы даем вам дешевый свет и участки, стройте ЦОДы».
Российский путь — это синтез. От Европы взят концепт «риск-ориентированности» и сертификации. От Китая — жесткие требования к локализации и роль спецслужб в оценке безопасности.
3 вопроса, которые остаются открытыми
1. Как пройти сертификацию ФСБ?
Порядок подтверждения безопасности моделей пока не установлен. Если он окажется закрытым (без четких критериев), это может привести к тому, что в реестр доверенных моделей попадут только решения госкорпораций, а частные разработчики останутся за бортом госзаказа.
2. Что считать «большой фундаментальной моделью»?
Закон дает право Минцифры устанавливать порог по количеству параметров. Это слишком сильный инструмент административного регулирования: изменив цифры, можно легко вывести из-под действия закона неудобных игроков или, наоборот, загнать под жесткий контроль всех подряд.
3. Успеют ли российские модели догнать мировых лидеров к 2027 году?
Закон вступает в силу 1 сентября 2027 года. Именно к этому моменту использование импортных решений в госсекторе будет фактически запрещено (только доверенные модели). Есть ли у нас запас прочности, чтобы заместить OpenAI и Google к этому сроку? Вопрос, скорее, не к юристам, а к инженерам и инвесторам.
Новый законопроект — попытка создать национальный рынок ИИ со своими правилами игры. Он предлагает разработчикам беспрецедентные льготы (авторское право, дешевые мощности), но взамен требует жесткой дисциплины безопасности и, по сути, отказа от использования западных «облаков» и моделей в публичном секторе.
Ближайшие полтора года (до окончательного принятия подзаконных актов) станут определяющими. Сейчас у сообщества есть шанс повлиять на то, какими будут критерии «доверенности», порядок сертификации и правила маркировки дипфейков. Игнорировать этот процесс нельзя — иначе рынок может оказаться зарегулированным до того, как успеет вырасти.