Ирина Рукавишникова: использование искусственного интеллекта в судебной системе будет расширяться

Но решения по делу должен принимать только живой человек

28.01.2022 00:00

Автор: Валерий Филоненко

Ирина Рукавишникова: использование искусственного интеллекта в судебной системе будет расширяться
Ирина Рукавишникова © Игорь Самохвалов/ПГ

Запрограммированный определённым образом ИИ способен проводить идеологическую и политическую «дискриминацию», иногда вступающую в противоречие с действующим законодательством России. Например, через соцсети может активно продвигать противоправный контент, связанный с популяризацией насилия, экстремизма и т.д. Поэтому необходимо выработать меры для исключения подобных практик и закрепить механизм контроля за решениями, принятыми «искусственным интеллектом». Такие практические решения позволят выполнить задачи, сформулированные ранее по итогам выездного заседания Совета по развитию цифровой экономики при Совете Федерации в Иннополисе 22 декабря прошлого года. Об этом в интервью «Парламентской газете» рассказала первый зампредседателя Комитета Совета Федерации по конституционному законодательству и государственному строительству, заместитель председателя Совета по развитию цифровой экономики при СФ Ирина Рукавишникова.

- Ирина Валерьевна, что подразумевается под «дискриминацией», когда мы говорим о возможных злоупотреблениях ИИ?

- Чтобы понять возможности «дискриминации» тех или иных групп граждан по каким-либо принципам при использовании искусственного интеллекта, необходимо посмотреть на специфику его работы. Во-первых, ИИ собирает данные («цифровой профиль» или «аватар») о каждом пользователе социальных сетей, поисковых систем, любых интернет-ресурсов. Например, что мы искали, с кем мы общаемся, какой ценовой политики придерживаемся при выборе товаров и услуг и т.д.

Российский робот не сможет причинить вред человеку

Во-вторых, искусственный интеллект посредством «умной ленты» и иных алгоритмов, которые хорошо известны только разработчикам и собственникам соцсетей, поисковиков или других сетевых ресурсов, начинает предлагать нам для просмотра информационные и рекламные материалы, кандидатов в «друзья» и т.д., исходя из этих, созданных самим ИИ, «аватаров».

Это может привести к искажению действительности, к формированию недостоверной картины мира в сознании пользователей.

- И как далеко может зайти такой специфически настроенный киберразум?

- Запрограммированный определённым образом искусственный интеллект способен также проводить идеологическую и политическую «дискриминацию», иногда вступающую в противоречие с действующим законодательством России. Например, через соцсети может активно продвигаться противоправный контент, связанный с популяризацией насилия, экстремизма, суицидов и т.д.

Либо, наоборот, конструктивный и значимый для большинства жителей страны контент может искусственно тормозиться в распространении или даже блокироваться. Не случайно в России взят однозначный курс на «приземление» зарубежных IT-гигантов, которые должны на территории РФ открыть свои официальные представительства и работать в строгом соответствии с законодательством нашей страны.

- Стоит ли тревожиться по поводу персональных данных, которые могут попасть в руки таких «нечистоплотных» ИИ?

- Серьёзную опасность представляют утечки или продажи третьим лицам собранных искусственным интеллектом «цифровых профилей» россиян, которые в дальнейшем могут быть использованы в том числе для мошеннических действий или кибербуллинга.

Именно поэтому важным аспектом использования технологий искусственного интеллекта должна стать политика максимальной открытости и информационной прозрачности. Пользователи цифровых ресурсов и иных программных продуктов должны быть осведомлены о применении таких технологий.

- В России в октябре 2021 года приняли Кодекс этики искусственного интеллекта, почему необходимо закрепить некоторые нормы на уровне закона?

Кодекс этики искусственного интеллекта как декларация принципов работы основных участников информационных отношений носит рекомендательный характер. При этом очевидно, что наиболее значимые вопросы сферы применения искусственного интеллекта нужно урегулировать законодательно.

Двуликая цифровизация

- Ранее вы говорили о необходимости оставить за человеком возможность оспорить решение умной машины. Почему это так важно?

- Очень важна сфера использования технологий ИИ при сборе юридически значимых доказательств. Окончательная оценка их применимости и достоверности должна осуществляться только человеком. Это позволит избегать случайной или намеренной фальсификации доказательств и, соответственно, правовой «дискриминации» граждан и принятия ошибочных решений, имеющих серьёзные правовые последствия.

Напомню, что обсуждению этих вопросов было посвящено заседание «О внедрении технологии искусственного интеллекта в экономике и социальной сфере» Совета по развитию цифровой экономики при Совете Федерации под председательством первого заместителя Председателя СФ Андрея Турчака, которое прошло в городе Иннополисе 22 декабря 2021 года.

- Ранее вы отмечали, что искусственный интеллект при осторожном и правильном его использовании может разгрузить российские суды. Насколько это осуществимо в принципе?

- Программы с использованием технологий искусственного интеллекта, которые позволяют оперативно находить необходимые для того или иного судебного процесса нормативные правовые акты, используются давно. Речь идёт о законах и подзаконных актах, о судебной практике по аналогичным делам. Быстрый подбор таких документов, разумеется, облегчает работу судей, позволяет им более оперативно принимать взвешенные, мотивированные, законные решения.

В такой «вспомогательной» или «сервисной» функции ИИ судебной системе необходим, его использование в таком ключе будет только расширяться. Но принимать решение по судебному делу, особенно, если речь идёт о судьбе человека в уголовном процессе, должен только живой человек — судья.


Ранее «Парламентская газета» сообщала, что в России хотят ввести единые правила к установке дорожных камер. Если камера установлена не так, как положено, то водителей не будут наказывать за зафиксированные ею нарушения.  Соответствующий законопроект Госдума приняла в первом чтении 17 декабря. Документ внесён в Госдуму первым вице-спикером Совета Федерации Андреем Турчаком, главой Комитета палаты по конституционному законодательству и госстроительству Андреем Клишасом и первым зампредом этого комитета Ириной Рукавишниковой.

Правда за нами