Все о пенсиях в России

13.06.2024Депутаты СРЗП предложили снизить возраст для досрочного выхода на пенсию

11.06.2024Володин предложил назвать «законом Путина» решение об индексации пенсий

11.06.2024Депутат Жуков объяснил, почему пенсии работающих пенсионеров можно снова индексировать

Контент от нейросети предлагают маркировать

Названы сферы, где использование искусственного интеллекта нужно ограничить законом

23.05.2024 15:54

Автор: Никита Вятчанин

Контент от нейросети предлагают маркировать
  © freepik.com

Решения суда, медицинские диагнозы, деление людей на категории с помощью распознавания лиц и биометрии — это сферы, где принятие решений с опорой на выводы искусственного интеллекта несет недопустимые риски для граждан и даже целых стран. Такие выводы эксперты представили 23 мая на заседании Комиссии Совета Федерации по информационной политике и взаимодействию со СМИ. Ее глава, сенатор Алексей Пушков считает, что, несмотря на всю сложность регулирования новой сферы, поправки в законодательство подготовят до конца 2024 года.

На службе у мошенников

По словам Пушкова, в социальной сфере тревожит прежде всего искажение информации, которая происходит компьютерном мозгу, — в своих выводах ИИ может доводить до абсурда данные, которые в него загружаются. Как это произошло, например, когда одна из нейросетевых платформ компании Google признала ошибку в определении пола трансгендера большей угрозой для человечества, чем начало ядерной войны. Как пояснил Пушков, эти парадоксы возможны, потому что ядерная война для ИИ — абстракция, а смена пола — то, что постоянно муссируется в медиа и поэтому воспринимается нейросетью более важным явлением.

Вторая сфера, где использование ИИ дает серьезные искажения, — это соблюдение прав человека. В первую очередь это касается технологий распознавания лиц, наблюдения и слежения за людьми. Третье направление связано с использованием ИИ в мошеннических целях. В том числе для телефонного мошенничества — мало нам своих аферистов, так еще на нашу страну буквально обрушились украинские. Известный специалист IT-индустрии член Совета при Президенте РФ по развитию гражданского общества и правам человека Игорь Ашманов прямо назвал украинские контакт-центры «индустрией государственного уровня» — из них делается от пяти до пятнадцати миллионов мошеннических звонков в Россию в день. И некоторые достигают цели. На это, считает Ашманов, работает несколько десятков тысяч людей на Украине, которые «непрерывно разводят наших граждан». И они уже начали применять ИИ.

Родившим до 25 лет женщинам предложили выплачивать 200 тысяч рублей

Зона недопустимого риска

Пожалуй, самое страшное в использовании ИИ — то, что на основании данных, полученных с его помощью, могут быть приняты неверные решения с катастрофическими последствиями, считает сенатор Ирина Рукавишникова. Она привела пример, который у многих в России на слуху, — почти год потребовался, чтобы освободить ученого-геодезиста Александра Цветкова, заключенного под стражу в феврале 2023 года из-за ошибки нейросети, которая сравнила его портрет с фотороботом преступника, который совершил жесткие серийные убийства 20 лет назад и не был пойман. Искусственный интеллект решил, что лицо Цветкова на 55 процентов совпадает с изображением злодея, — в итоге ученый провел за решеткой десять месяцев, прежде чем ошибку признали.

Поэтому, рассказала Рукавишникова, в Совете Федерации попросили экспертов выявить сферы, где применение искусственного интеллекта несет недопустимые риски и должно быть жестко регламентировано. «По мнению экспертов, в эту группу попадает, в частности, биометрическая категоризация людей, распознавание человеческих эмоций на рабочем месте, система так называемого социального рейтинга. Сюда же стоит отнести выставление окончательных медицинских диагнозов и принятие решения о привлечении к уголовной ответственности и вынесении любых судебных решений, основанных исключительно на технологиях ИИ», — сообщила она.

В зону меньшего, но все-таки высокого риска эксперты относят применения ИИ при формировании образовательного контента, использование нейросетей на транспорте и в других системах, где здоровье и жизнь человека могут оказаться под угрозой. А вот сферы, где риск применения ИИ минимальный или даже отсутствующий, — это видеоигры, фильтры для спама, получение систематизированной информации при обработке баз данных.

Говоря о конкретных законодательных решениях, Рукавишникова предложила обязывать владельцев сервисов искусственного интеллекта маркировать контент, произведенный с его помощью. «Это поможет в регулировании сферы, если, конечно, будет установлена и соответствующая ответственность за нарушение данных правил», — заметила сенатор. При этом она подчеркнула: одним из обязательных направлений законодательной работы должны стать поддержка отечественных разработчиков нейросетей, а также требование использовать только отечественные разработки ИИ в критически значимых для страны областях.

Как сообщил Алексей Пушков «Парламентской газете», предложения законодателей о регулировании ИИ могут быть окончательно сформулированы до конца 2024 года.

Опубликовано расписание ОГЭ в 2024 году

Как у них

Сегодня самый жесткий подход к регулированию ИИ в странах Евросоюза — государство полностью контролирует все нейросети и области их применения. В законах стран ЕС предусмотрено тщательное тестирование и предварительное одобрение систем ИИ, допущенных к использованию.

Более мягкое регулирование в Великобритании, Японии, Южной Кореи, отчасти в США. Такой подход предполагает минимальные законодательные ограничения разработки и применения искусственного интеллекта, чтобы обеспечить технологическое превосходство страны и развитие инновационной экономики.

России, как говорят эксперты Совета Федерации, более подходит третий, гибридный, подход, когда законодатель пытается найти баланс между обеспечением развития технологий и безопасности их применения. «В этом случае ограничения носят точечный характер и государство стимулирует бизнес создавать внутренние механизмы самоконтроля и корпоративной этики в сфере искусственного интеллекта. По такому пути в настоящее время идет Китай», — рассказала Ирина Рукавишникова.

Читайте также:

• В Совфеде рассказали, как будет выглядеть Цифровой кодекс России