«Пузыри» искусственного интеллекта: сколько в мире тратят на технологии ИИ
В Совете Федерации подготовили законопроект о безопасном применении таких технологий в России
Развитие искусственного интеллекта уже стало самым финансово емким глобальным проектом в истории научно-технического прогресса, на него в мире ежегодно тратится по два-три триллиона долларов. При этом завышенная оценка значения технологий ИИ, которая сегодня наблюдается в США, несет в себе риски возникновения «пузырей» в инвестиционной и информационной сферах. Одновременно растет необходимость в госрегулировании сектора на законодательном уровне, в связи с чем в Совете Федерации готовят к публикации текст нового законопроекта об использовании искусственного интеллекта в РФ.
Триллионы долларов и риски «подменной реальности»
Технологии искусственного интеллекта стали самым дорогостоящим за всю историю научно-техническим проектом. Об этом 2 апреля заявил глава Комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков на круглом столе в палате регионов.
Он привел данные, согласно которым по итогам 2026 года мировые траты на покупку и развитие технологий ИИ достигнут 2,5 триллиона долларов — это на 44 процента больше, чем годом ранее. А по прогнозам в 2027 году этот показатель достигнет уже 3,3 триллиона долларов. Одновременно, сообщил сенатор, наращивается объем корпоративных инвестиций в развитие технологий ИИ — с 2013 по 2024 год они составили 1,6 триллиона долларов.
«Если говорить о глобальных научно-технических проектах, это самое дорогое направление за всю историю человечества», — заявил Алексей Пушков.
Абсолютный мировой лидер по вложениям в ИИ — это США, которые потратили на такие технологии 470 миллиардов долларов (62 процента от общемирового объема ИИ-инвестиций). Далее идет Китай (120 миллиардов долларов) и Великобритания (28 миллиардов).
При этом, по словам Пушкова, в списке главных рисков и угроз, которые несет в себе ИИ для человечества, эксперты называют переоцененность технологий искусственного интеллекта на американском рынке, где большая часть вложений связана с круговыми инвестициями (когда крупные компании друг у друга заказывают необходимые ИИ-продукты). Из-за этого создается инвестиционный пузырь, который, если лопнет, чреват серьезнейшими кризисными последствиями для мировой экономики. Как это случилось, например, в 2008 году, когда мировой кризис начался именно с коллапса на рынке недвижимости США.
Есть и еще один опасный «пузырь» ИИ — информационный. Так считает директор департамента информации и печати МИД России Мария Захарова. Сегодня, по ее словам, с помощью искусственного интеллекта мягко и ненавязчиво происходит формирование ложных квазиинформационных тезисов, что «ведет к эрозии культурного многообразия и деградации когнитивного потенциала людей». В конечном итоге, считает она, «может появиться гигантский информационный пузырь сгенерированной ИИ псевдореальности».
«Опасен он тем, что достоверное содержание невозможно будет отличить от фальшивого: не будет просто хватать таких мощностей, которые могли бы моментально определять — это фейк или нет? Так человечество может оказаться заложником подменной реальности и упасть в тотальную социальную дезориентацию», — считает Мария Захарова.
Что такое «искусственный интеллект»
Мария Захарова также уверена, что необходимы меры по нормативно-правовому регулированию сектора ИИ — по ее словам, «пора заканчивать дискуссии на тему того, что такое «искусственный интеллект», и дать его четкое правовое определение.
В Совете Федерации это полностью поддерживают и считают, что такое определение должно быть дано на уровне федерального закона. Россия здесь, увы, находится в числе последних среди крупных стран, в большинстве из которых уже есть акты, дающие законодательное определение ИИ. На это обратил внимание зампредседателя Комитета Совета Федерации по конституционному законодательству и государственному строительству Владимир Кожин.
На сегодня в России есть законопроект о госрегулировании использования искусственного интеллекта, который подготовило Минцифры — документ опубликован на федеральном портале проектов нормативных актов 17 марта для обсуждения профессиональным сообществом. Но пока, как отметил Кожин, «его нельзя назвать совершенным» — у ряда IT-специалистов к нему есть серьезные вопросы.
Одновременно в Совете Федерации подготовили свой законопроект — о безопасном применении ИИ в России. Как сообщил 2 апреля Владимир Кожин, который входит в число разработчиков документа, его текст, который готовился и дорабатывался в течение последнего года, будет опубликован в самое ближайшее время.
Отвечая на вопросы «Парламентской газеты», законодатель пояснил, что сенаторский закон, в частности, дает определение, что такое искусственный интеллект, что такое «доверенные» технологии ИИ (то есть системы, которые прошли оценку специалистов и допущены к использованию в нашей стране). Кроме того, новый законопроект, который во многом является рамочным, дает основу для запуска механизмов ответственности лиц за применение ИИ в недобросовестных целях, в частности, речь идет об использовании дипфейков с недостоверными высказываниями политиков и лидеров общественного мнения.
Привычка перекладывать ответственность на ошибки ИИ
Главный же принцип, который заложен в основу сенаторского законопроекта, сформулировал один из его соавторов, член Совета при Президенте РФ по развитию гражданского общества и правам человека, президент исследовательской и технологической IT-компании «Крибрум» Игорь Ашманов. «Не стоит регулировать создание технологий, нужно регулировать их применение, и прежде всего опасное применение ИИ там, где он может принести вред», — заявил эксперт во время круглого стола в палате регионов.
В связи с этим известный специалист в сфере кибербезопасности и IT-технологий также обратил внимание на то, что искусственный интеллект сегодня все чаще используют как инструмент для снятия с себя ответственности. И если гражданские чиновники пеняют на ошибки чат-ботов, то американские военные — на ошибку систем ИИ при наведении ракет на цели в Иране, в результате чего в начале агрессии США и Израиля против исламской республики на ее территории была поражена школа, в которой погибло 170 иранских девочек.
Чтобы изжить вредную привычку прикрывать свои ошибки и даже преступления сбоями в работе ИИ, считает Ашманов, в законодательстве стоит прописать нормы ответственности для тех, кто применяет искусственный интеллект на практике.
Читайте также:
• В вузах могут начать готовить специалистов по борьбе с дипфейками
Ещё материалы: Алексей Пушков, Владимир Кожин





