В России начали разрабатывать проект регулирования в сфере искусственного интеллекта. Один из ключевых пунктов инициативы, полный запрет на ИИ-системы с неприемлемым уровнем риска, сообщает РБК со ссылкой на источники, знакомые с обсуждением.
Проект создаёт рабочая группа, в которую вошли юристы, представители консалтинговых компаний и участники ИИ-индустрии. Документ уже обсуждается в Госдуме, а также на площадках вроде «Деловой России» и отраслевых комитетов.
Пока без единого закона по ИИ
По словам Андрея Свинцова, зампреда комитета Госдумы по информационной политике, единый масштабный законопроект по ИИ в ближайшее время не планируется. Вместо этого власти сосредоточатся на точечных инициативах, например создании пилотных зон или введении правил для отдельных отраслей.
В проекте предлагается официально определить ИИ как технологический и программный комплекс, способный имитировать когнитивные функции человека, от самообучения до принятия решений без заранее заданного сценария.
Также вводятся понятия в ИИ:
- Разработчик ИИ,
- Оператор,
- Пользователь,
- Обязательная маркировка — человек должен знать, что общается не с человеком, а с ИИ.
ИИ-системы разделят по уровню риска
Главная идея, это классификация ИИ по степени потенциальной угрозы:
- Неприемлемый риск — такие системы запретят полностью;
- Высокий риск — обязательная регистрация и сертификация;
- Ограниченный риск — добровольная сертификация и внутренний контроль;
- Минимальный риск — без дополнительных требований.
Кроме того, предусмотрена ответственность за возможный вред, причинённый ИИ. Однако если разработчик или оператор предприняли все необходимые меры безопасности, или если виной стал сам пользователь , то ответственности не будет.
Если законопроект примут в нынешнем виде, у всех участников рынка будет один год на адаптацию своих решений к новым правилам.