День Победы в Великой Отечественной войне

18:48Посольство в Германии потребовало отменить запрет атрибутики ко Дню Победы

11:37«Как Запорожье встретит День Победы»

00:00Как отметить День Победы в Крыму

Китайские эксперты рассказали о методах выявления фейков, создаваемых нейросетью

23.04.2023 09:27

Автор: Иван Антонов, Пекин

Китайские эксперты рассказали о методах выявления фейков, создаваемых нейросетью
  © pxhere.com

Использование современных технологий, включая «искусственный интеллект», крайне важно. Они будут полезны для борьбы с новыми угрозами в цифровом пространстве, например, с «фейками», пишет со ссылкой на экспертов издание Global Times.

Цифровые инновации можно эффективно использовать для создания более «здорового» информационного пространства. Например, искусственный интеллект способен помочь поиску и определению «фейков», в том числе создаваемых на базе новых технологий, считает директор Института журналистики и коммуникаций Академии общественных наук Китая Ху Чжэнжун.

В качестве примера специалист привел платформу AIGC-X, которая способна автоматически определять тексты, картинки и видео, создаваемые с использованием «искусственного интеллекта». Точность программы в выявлении «сгенерированных машиной» документов приближается к 90 процентам.

Наряду с использованием программных средств выявления «фейков», создаваемых ИИ, необходимо работать в информационном пространстве. Наиболее эффективным способом опровержения «заведомо ложных сведений», является оперативное обнародование реальных фактов, полагает заместитель директора информационного отдела Политико-юридической комиссии Центрального комитета Компартии Китая Ван Мэн. 

Читайте также:

• Маск анонсировал создание «честного» чат-бота TruthGPT • Воскрешение мертвых и мошенничество с деньгами: чем опасны дипфейки • Китайский эксперт назвал особенности цифровизации КНР

Подробные и своевременные разъяснения по поводу вызывающих социальный резонанс событий способны опровергнуть слухи и успокоить общественность. Таким образом можно предотвратить разрастание отдельных эпизодов до опасных масштабов, считает Ван Мэн.