Добавить новость
Январь 2010 Февраль 2010 Март 2010 Апрель 2010 Май 2010
Июнь 2010
Июль 2010 Август 2010 Сентябрь 2010
Октябрь 2010
Ноябрь 2010 Декабрь 2010 Январь 2011 Февраль 2011 Март 2011 Апрель 2011 Май 2011 Июнь 2011 Июль 2011 Август 2011 Сентябрь 2011 Октябрь 2011 Ноябрь 2011 Декабрь 2011 Январь 2012 Февраль 2012 Март 2012 Апрель 2012 Май 2012 Июнь 2012 Июль 2012 Август 2012 Сентябрь 2012 Октябрь 2012 Ноябрь 2012 Декабрь 2012 Январь 2013 Февраль 2013 Март 2013 Апрель 2013 Май 2013 Июнь 2013 Июль 2013 Август 2013 Сентябрь 2013 Октябрь 2013 Ноябрь 2013 Декабрь 2013 Январь 2014 Февраль 2014 Март 2014 Апрель 2014 Май 2014 Июнь 2014 Июль 2014 Август 2014 Сентябрь 2014 Октябрь 2014 Ноябрь 2014 Декабрь 2014 Январь 2015 Февраль 2015 Март 2015 Апрель 2015 Май 2015 Июнь 2015 Июль 2015 Август 2015 Сентябрь 2015 Октябрь 2015 Ноябрь 2015 Декабрь 2015 Январь 2016 Февраль 2016 Март 2016 Апрель 2016 Май 2016 Июнь 2016 Июль 2016 Август 2016 Сентябрь 2016 Октябрь 2016 Ноябрь 2016 Декабрь 2016 Январь 2017 Февраль 2017 Март 2017 Апрель 2017
Май 2017
Июнь 2017
Июль 2017
Август 2017 Сентябрь 2017 Октябрь 2017 Ноябрь 2017 Декабрь 2017 Январь 2018 Февраль 2018 Март 2018 Апрель 2018 Май 2018 Июнь 2018 Июль 2018 Август 2018 Сентябрь 2018 Октябрь 2018 Ноябрь 2018 Декабрь 2018 Январь 2019 Февраль 2019 Март 2019 Апрель 2019 Май 2019 Июнь 2019 Июль 2019 Август 2019 Сентябрь 2019 Октябрь 2019 Ноябрь 2019 Декабрь 2019 Январь 2020 Февраль 2020 Март 2020 Апрель 2020 Май 2020 Июнь 2020 Июль 2020 Август 2020 Сентябрь 2020 Октябрь 2020 Ноябрь 2020 Декабрь 2020 Январь 2021 Февраль 2021 Март 2021 Апрель 2021 Май 2021 Июнь 2021 Июль 2021 Август 2021 Сентябрь 2021 Октябрь 2021 Ноябрь 2021 Декабрь 2021 Январь 2022 Февраль 2022 Март 2022 Апрель 2022 Май 2022 Июнь 2022 Июль 2022 Август 2022 Сентябрь 2022 Октябрь 2022 Ноябрь 2022 Декабрь 2022 Январь 2023 Февраль 2023 Март 2023 Апрель 2023 Май 2023 Июнь 2023 Июль 2023 Август 2023 Сентябрь 2023 Октябрь 2023 Ноябрь 2023 Декабрь 2023 Январь 2024 Февраль 2024 Март 2024 Апрель 2024 Май 2024 Июнь 2024 Июль 2024 Август 2024 Сентябрь 2024 Октябрь 2024 Ноябрь 2024 Декабрь 2024 Январь 2025 Февраль 2025 Март 2025 Апрель 2025 Май 2025 Июнь 2025 Июль 2025 Август 2025 Сентябрь 2025 Октябрь 2025 Ноябрь 2025 Декабрь 2025 Январь 2026 Февраль 2026 Март 2026
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
25
26
27
28
29
30
31
Новости 24 часа |

ИИ под надзором. Что меняет новый законопроект о нейросетях

3

17 марта 2026 года на публичное обсуждение был вынесен проект Федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта». Документ, который должен вступить в силу 1 сентября 2027 года, обещает стать точкой бифуркации для всей отрасли.

В материале для aif.ru секретарь СЖР, доцент журфака МГУ Роман Серебряный сделал разбор и проанализировал 20 статей законопроекта, сравнил его с подходами ЕС, США и Китая.

Российский рынок ИИ долгое время существовал в режиме «мягкого права» — этические кодексы, стратегии, рекомендации. Но экспоненциальный рост генеративных нейросетей, дипфейков и зависимость критической инфраструктуры от зарубежных решений потребовали жестких рамок.

Разработчики жалуются на правовую неопределенность: можно ли обучать модели на чужих текстах? Кто ответит за совет нейросети, который привел к убыткам? А государство, в свою очередь, обеспокоено суверенитетом: как не допустить ситуации, когда ключевые информационные системы будут работать на чипах и алгоритмах из недружественных стран.

Новый законопроект — это попытка дать ответы на все эти вопросы.

«Доверенные модели» и суверенитет

Ключевое нововведение — институт доверенных моделей искусственного интеллекта (статья 8). Если упрощать — это «белый список» ИИ-решений, которые допускаются в государственные информационные системы и на объекты критической информационной инфраструктуры (КИИ). Попасть туда можно только при соблюдении трех условий:

Безопасность — подтверждение со стороны ФСБ и ФСТЭК (Федеральная служба безопасности и Федеральная служба по техническому и экспортному контролю). Это означает, что модель проверили на наличие уязвимостей, недекларированных возможностей и устойчивость к взлому.

Локализация данных — вся обработка информации должна происходить исключительно на территории РФ.

Качество — соответствие отраслевым стандартам (для медицины — требования Минздрава, для финансов — ЦБ и т. д.).

Плюс для государства: гарантия, что чиновники и стратегические предприятия не попадут в зависимость от санкционных сервисов.

Риск для бизнеса: процедура сертификации в силовых ведомствах традиционно длительная и дорогая. Для стартапов, создающих простые чат-боты для госсектора, это может стать непреодолимым барьером. Кроме того, законопроект пока не делит ИИ-системы по степени риска (как это сделано в Европе). Получается, что и система управления городским транспортом, и голосовой помощник в регистратуре поликлиники могут быть приравнены к объектам повышенного внимания.

Авторское право

Пожалуй, самая смелая и профессионально проработанная часть законопроекта — (статья 13). В ней фактически признается, что объекты, созданные нейросетью, могут быть объектами авторского права.

Раньше в российском правоприменении была позиция: автором может быть только человек. Суды США идут по тому же пути, отказывая ИИ в статусе автора. Но разработчики российского законопроекта предложили элегантное решение: значение имеет не «кто нажал на кнопку», а оригинальность результата. Если сгенерированная картинка или текст обладают творческой составляющей — они охраняются.

Кроме того, в законе легализовано «извлечение данных для обучения». Теперь российский разработчик может спокойно использовать открытые тексты, изображения и базы данных для обучения своей модели, если у него был правомерный доступ к этим материалам (например, открытый интернет или легально купленная база). Это снимает тот вал судебных исков, который сегодня захлестнул американских разработчиков (New York Times против OpenAI и другие).

Однако есть нюанс: владельцы сервисов обязаны «гарантировать отсутствие нарушений прав интеллектуальной собственности третьих лиц» при разработке модели. Как это гарантировать, если модель обучалась на миллиардах параметров из открытых источников, — вопрос, который закон оставляет без ответа.

Маркировка дипфейков

Статья 12 обязывает владельцев сервисов маркировать синтезированный контент. Предполагается, что предупреждение «Создано ИИ» должно быть и в человекочитаемом виде, и в машиночитаемом (чтобы специальные сервисы могли автоматически фильтровать фейки).

Но здесь скрыта опасность. Часть 5 статьи 12 позволяет пользователю отказаться от получения человекочитаемой маркировки, если это предусмотрено договором.

Представьте: вы регистрируетесь в сервисе генерации видео, ставите галочку в длинном пользовательском соглашении, и всё — все ваши дипфейки выходят в свет без надписи «создано ИИ». Этим смогут воспользоваться мошенники и производители фейковых новостей. В текущей редакции норма выглядит как попытка переложить ответственность за дезинформацию с платформы на пользователя, что противоречит мировой практике ужесточения правил маркировки.

Кто ответит за ошибку нейросети?

Статья 11 — это попытка разделить ответственность между разработчиком, оператором и пользователем. Законодатель исходил из того, что нельзя возлагать всю вину на того, кто создал модель, если ее использовали неправильно.

Ответственность наступает, если лицо «заведомо знало или должно было знать» о возможности получить незаконный результат.

Для юристов это «золотая жила» споров. Доказать, что разработчик чат-бота должен был знать, что его модель используют для создания вредоносного кода, на практике почти невозможно. В отличие от Европы, где для высокорисковых систем действует презумпция ответственности оператора, в российском проекте бремя доказывания лежит на потерпевшем.

Есть и плюс: оператор, возместивший вред, может предъявить регрессный иск к разработчику, если докажет, что проблема была в конструктивном недостатке модели, который нельзя было выявить при обычной проверке.

Льготы для суперкомпьютеров

Статья 20 — это то, за что бизнес готов аплодировать стоя. Государство предлагает мощный пакет поддержки для центров обработки данных (ЦОД) и суперкомпьютеров, включенных в специальный перечень.

Разработчики получат:

Льготное техприсоединение к электросетям (а это одна из главных статей расходов для дата-центров).

Сниженные тарифы на электроэнергию (ниже, чем для промышленных потребителей).

Налоговые льготы и упрощенный порядок получения разрешительной документации.

Это прямой ответ на проблему дефицита вычислительных мощностей. Без своих «железок» создавать большие фундаментальные модели невозможно. Здесь государство говорит: «Мы даем вам дешевый свет и участки, стройте ЦОДы».

Российский путь — это синтез. От Европы взят концепт «риск-ориентированности» и сертификации. От Китая — жесткие требования к локализации и роль спецслужб в оценке безопасности.

3 вопроса, которые остаются открытыми

1. Как пройти сертификацию ФСБ?

Порядок подтверждения безопасности моделей пока не установлен. Если он окажется закрытым (без четких критериев), это может привести к тому, что в реестр доверенных моделей попадут только решения госкорпораций, а частные разработчики останутся за бортом госзаказа.

2. Что считать «большой фундаментальной моделью»?

Закон дает право Минцифры устанавливать порог по количеству параметров. Это слишком сильный инструмент административного регулирования: изменив цифры, можно легко вывести из-под действия закона неудобных игроков или, наоборот, загнать под жесткий контроль всех подряд.

3. Успеют ли российские модели догнать мировых лидеров к 2027 году?

Закон вступает в силу 1 сентября 2027 года. Именно к этому моменту использование импортных решений в госсекторе будет фактически запрещено (только доверенные модели). Есть ли у нас запас прочности, чтобы заместить OpenAI и Google к этому сроку? Вопрос, скорее, не к юристам, а к инженерам и инвесторам.

Новый законопроект — попытка создать национальный рынок ИИ со своими правилами игры. Он предлагает разработчикам беспрецедентные льготы (авторское право, дешевые мощности), но взамен требует жесткой дисциплины безопасности и, по сути, отказа от использования западных «облаков» и моделей в публичном секторе.

Ближайшие полтора года (до окончательного принятия подзаконных актов) станут определяющими. Сейчас у сообщества есть шанс повлиять на то, какими будут критерии «доверенности», порядок сертификации и правила маркировки дипфейков. Игнорировать этот процесс нельзя — иначе рынок может оказаться зарегулированным до того, как успеет вырасти.

Читайте также

«Нелюди или весеннее обострение»: психолог о тех, кто считает Лерчек симулянткой

«День единого пособия» пройдет в Псковской области 27 марта

"Ростелеком" завершил проект по запрету международных звонков



Новости России
Ria.city
Moscow.media


Rss.plus




Новости тенниса

Спорт в России и мире


Новости Крыма на Sevpoisk.ru

Происшествия, события, анонсы, всё, что случилось сегодня, вчера, на этой неделе и всё, что предстоит увидеть завтра в России, в Украине, в мире — сейчас в новостях на Ru24.pro (прямой эфир, прямые публикации, прямые трансляции, мгновенные авторские публикации, полный календарный архив). Последние новости, статьи, объявления, блоги, комментарии, заметки, интервью, всё, о чём пишут, думают, говорят на русском— в режиме онлайн, здесь. Ru24.pro — всегда первые новости на русском.

Ru24.pro — реальные статьи от реальных источников в прямой трансляции (на русском) 24 часа в сутки с возможностью мгновенной авторской публикации в реальном времени и удобной для чтения форме.



Губернаторы России

Опубликовать свою новость сейчас можно самостоятельно, локально в любом городе России по любой тематике, на любом языке мира с мгновенной публикацией — здесь.


Музыкальные новости


Загрузка...

Спонсоры Ru24.pro