День Победы в Великой Отечественной войне

14:41На бесплатный газ перевели 22 мемориала Вечного огня в 11 регионах России

14:32Депутат Занко поблагодарила волонтеров за помощь ветеранам ВОВ

12:25Депутат рассказала, как в этом году проходит «Бессмертный полк»

На пути к цифровому кодексу РФ: искусственный интеллект требует особого внимания

26.04.2024 10:15

Искусственный интеллект (ИИ) является одной из самых быстроразвивающихся областей науки и техники. Он находит применение в различных сферах человеческой деятельности, от медицины и образования до производства и транспорта. Однако стремительное развитие ИИ также вызывает ряд вопросов и проблем, которые требуют законодательного регулирования.

Стоит понимать, что развитие ИИ дает нам как новые возможности, так и угрозы безопасности наших граждан. Мошенники все чаще используют нейросети в своих схемах.

Валентина Матвиенко, председатель Совета Федерации, на пленарном заседании уделила особое внимание этому вопросу и сделала акцент на необходимости разработки и принятия законов, регулирующих использование искусственного интеллекта.

В рамках работы Комитета Совета Федерации по конституционному законодательству и государственному строительству намерен активно заниматься этим вопросом. Наша цель — гарантировать безопасность и защитить права граждан в эпоху развития новых технологий.

Категории риска для технологий на основе искусственного интеллекта

В первую очередь, чтобы минимизировать риски и обеспечить безопасность использования ИИ, необходимо разработать систему классификации технологий по степени риска.

Система классификации должна включать три основные категории:

  1. Высокая. Технологии, которые имеют высокий уровень риска, требуют запрета использования, поскольку могут привести к непоправимым для общества и экономики последствиям.
  2. Средняя. Технологии, которые имеют высокий уровень риска, требуют особого внимания и контроля со стороны государства и общества. К ним относятся технологии, которые могут привести к экономическим потерям, нарушению конфиденциальности данных или другим серьёзным последствиям.
  3. Низкая. Технологии с низким уровнем риска могут использоваться без особых ограничений.

Маркировка контента, созданного с использованием нейросетей: защита от дипфейков и сохранение уникальности искусства

Следующим шагом должна стать маркировка контента, созданного с использованием нейросетей.

Искусственный интеллект уже способен генерировать тексты, изображения, видео и аудиозаписи, что открывает новые возможности для творчества, но также создает угрозу злоупотребления. Мошенники все чаще используют дипфейки для распространения дезинформации и вымогания денежных средств.

Представители искусства также выражают обеспокоенность по поводу дипфейков. Председатель Союза кинематографистов Н. С. Михалков считает, что дипфейки представляют «страшную опасность», и отмечает, что использование этой технологии может привести к «непредвиденным последствиям», таким как потеря уникальности и ценности работы артистов.

Для обеспечения прозрачности и доверия в цифровом пространстве необходимо разработать систему, которая будет анализировать контент и определять, создан ли он человеком или сгенерирован нейросетью. Это позволит оперативно удалять нежелательный контент и привлекать к ответственности нарушителей.

Ответственность за системы искусственного интеллекта: кто и за что отвечает?

Ответственность за системы ИИ должна возлагаться на поставщика. Поставщик — это физическое или юридическое лицо, которое размещает систему на рынке или вводит ее в эксплуатацию. Независимо от того, кто спроектировал или разработал систему, именно поставщик должен гарантировать её соответствие всем необходимым стандартам и требованиям безопасности.

Разработчики и развертыватели также должны рассматриваться как поставщики систем ИИ и, следовательно, брать на себя все соответствующие обязательства.

Важно отметить, что ответственность за системы ИИ должна быть четко определена и закреплена законодательно. Это позволит создать эффективную систему контроля и надзора за разработкой, внедрением и эксплуатацией систем.

Лицензирование искусственного интеллекта: необходимость и перспективы

Одним из способов обеспечения безопасности и этичности использования ИИ является его лицензирование. Лицензирование ИИ предполагает выдачу разрешений на разработку, тестирование и использование систем искусственного интеллекта. Лицензии могут выдаваться государственным органом или специализированной организацией.

В дальнейшем необходимо ограничивать работу с продвинутыми инструментами искусственного интеллекта без лицензии.

Платить авторам контента при обучении искусственного интеллекта

Все чаще возникает вопрос о защите авторских прав на контент, который используется для обучения нейросетей. В связи с этим предлагается ввести систему оплаты авторам контента, которая позволит компенсировать их труд и стимулировать создание качественного материала.

Для реализации этой системы необходимо предпринять следующие шаги:

  • Запрет на генерацию нелегального контента. Разработчикам следует запретить использовать контент, защищенный авторскими правами, без согласия правообладателя. Это поможет предотвратить нарушение прав авторов и обеспечит легальность материалов, используемых для обучения ИИ.
  • Обязать разработчиков сообщать о материалах, используемых для обучения. Разработчики должны будут предоставлять информацию о контенте, который они используют для обучения своих систем. Это позволит правообладателям отслеживать использование их материалов и получать компенсацию за их использование.
  • Правообладатели смогут подавать иски. Если правообладатель обнаружит, что разработчик незаконно использовал его контент для обучения ИИ, он сможет подать иск.
  • Штрафы за нарушение правил. За нарушение правил использования контента для обучения ИИ следует предусмотреть штрафы. Это станет дополнительным стимулом для разработчиков соблюдать законодательство и уважать авторские права.

Технологии искусственного интеллекта средней категории риска необходимо приравнять к объектам критической информационной инфраструктуры

Кибербезопасность играет решающую роль в обеспечении устойчивости систем ИИ от преступных действий третьих лиц, использующих уязвимости системы.

Чтобы предотвратить возможные негативные последствия, необходимо принять меры по регулированию и контролю за этими технологиями. Одним из возможных решений является приравнивание технологий ИИ средней категории риска к объектам критической информационной инфраструктуры (КИИ).

Критическая информационная инфраструктура — это совокупность объектов, которые обеспечивают функционирование ключевых сфер жизнедеятельности государства и общества. К ним относятся, например, системы управления энергетикой, транспортом, связью и другими важными отраслями.

Приравнивание технологий ИИ средней категории риска к объектам КИИ позволит установить более строгие требования к их разработке, тестированию и эксплуатации.

Создание нормативной «песочницы»

Внедрение новых технологий и продуктов сопряжено с определенными рисками и трудностями, связанными с необходимостью соблюдения законодательства и нормативных требований.

Для того чтобы ускорить разработку и внедрение новых продуктов и услуг в сферах применения цифровых инноваций, необходимо создать правовые условия, которые позволят инвесторам и разработчикам экспериментировать с новыми технологиями без риска нарушить закон. Одним из инструментов, который может помочь в решении этой задачи, является регулятивная песочница (РП).

Регулятивная песочница — это специальная правовая модель, в рамках которой инвесторы и разработчики могут внедрять новые технологии, не рискуя нарушить закон. Песочница позволяет проводить эксперименты с новыми продуктами и услугами в условиях, максимально приближенных к реальным, но при этом защищенных от возможных негативных последствий.

Для успешной работы регулятивной песочницы необходимо обеспечить участие в ней представителей бизнеса, профильных организаций и технических специалистов. Это позволит учесть интересы всех сторон и обеспечить эффективное внедрение инноваций.

В эпоху стремительного развития цифровых технологий становится очевидным, что существующее законодательство нуждается в адаптации. Создание цифрового кодекса — это сложный и долгий процесс, требующий тщательной проработки и согласования.

Уже сейчас необходимо вносить изменения в существующие законы, чтобы обеспечить соответствие законодательства современным технологическим реалиям и защитить права и свободы граждан в цифровом пространстве.