Совет Федерации предложит внести положения Кодекса этики в сфере искусственного интеллекта в законодательство, пишет РБК со ссылкой на двух человек в верхней палате парламента. Ожидается, что инициатива будет озвучена 22 декабря на выездном заседании Совета по цифровой экономике при Совфеде.
Совфед хочет ввести отдельный законодательный запрет на включение в состав ИИ алгоритмов и параметров, которые будут дискриминировать граждан по различным признакам. Помимо этого, Совфед намерен рекомендовать Минэкономразвития создать инструмент по оценке последствий от внедрения ИИ «в целях исключения негативного воздействия на права человека и гражданина».
«Базовые положения о функционировании искусственного интеллекта могут быть закреплены в специализированном, отдельном федеральном законе или же в законе „Об информации, информационных технологиях и о защите информации“», — рассказывает один из собеседников РБК.
Также положения об оценке рисков внедрения ИИ могут быть прописаны в законе «Об обязательных требованиях в России». Положения об использовании ИИ в сфере оказания муниципальных и государственных услуг и решения юридических вопросов могут войти в закон «Об организации предоставления государственных и муниципальных услуг».
Кодекс этики в сфере искусственного интеллекта был разработан в рамках нацпрограммы «Цифровая экономика». Его уже подписали такие компании, как Сбербанк, «Газпром нефть», «Яндекс», VK (до недавнего времени Mail.ru Group), «МТС», Российский фонд прямых инвестиций (РФПИ), а также представители «Сколкова», «Ростелекома», «Росатома», InfoWatch, Cian (владеет сервисом по поиску недвижимости «Циан») и др.
Согласно положениям кодекса, человек должен быть проинформирован, что общается с ИИ, а разработчики нейросетей должны убедиться, что их алгоритмы не приведут к дискриминации. Ответственность за последствия действий ИИ всегда должен нести человек. Документ будет носить лишь рекомендательный характер, все участники рынка могут добровольно присоединиться к нему, выразив тем самым согласие с его положениями.