Генеральный директор Ассоциации электронных коммуникаций (РАЭК) Дмитрий Гуляев предложил создать рабочую группу по вопросам маркировки контента, созданного человеком или ИИ

Генеральный директор Ассоциации электронных коммуникаций (РАЭК) Дмитрий Гуляев предложил создать рабочую группу по вопросам маркировки контента, созданного человеком или ИИ

Дата публикации: 26 ноября 2025

Генеральный директор Ассоциации электронных коммуникаций (РАЭК) Дмитрий Гуляев предложил создать рабочую группу по вопросам маркировки контента, созданного человеком или ИИ

Генеральный директор Ассоциации электронных коммуникаций (РАЭК) Дмитрий Гуляев предложил создать рабочую группу по вопросам маркировки контента, созданного человеком или ИИ

В рамках форума «Цифровые решения» прошла сессия «Новая реальность медиа: как отличить правду от вымысла в эпоху фейков». Мероприятие состоялось на площадке Национального центра «Россия».

В дискуссии приняли участие Дмитрий Гуляев, Генеральный директор Ассоциации электронных коммуникаций (РАЭК), Мария Мезенцева, советник министра цифрового развития, связи и массовых коммуникаций Российской Федерации, Елена Березина, заместитель главного редактора «Российской газеты», Юрий Синодов, директор по развитию СМИ2, основатель Roem.ru, Кирилл Сидоров, директор по цифровому развитию ТАСС. Модератор сессии — Анастасия Лобада, диджитал-директор радио «Вера».

Основной темой дискуссии стала трансформация медиапространства в эпоху цифровизации. Особое внимание было уделено вопросам борьбы с дезинформацией, роли искусственного интеллекта в проверке фактов и новым подходам к созданию качественного контента.

Дмитрий Гуляев, Генеральный директор Ассоциации электронных коммуникаций (РАЭК), видит прямую связь между угрозой фейков и ухудшением качества коммуникации. По его словам, цифровая среда, создавая «маски», снижает уровень доверия между людьми. Он подчеркнул, что противодействие фейкам – это лишь часть более масштабной проблемы – распространения угроз информационно-психологической безопасности.

«Если с рисками информационно-технического воздействия сегодня мы как-то работаем, то с рисками деструктивного информационно-психологического воздействия работать, тем более в правовом контексте, очень сложно», – отметил Дмитрий Гуляев. Жесткое регулирование и ответственность только журналистов не решат проблему. Потеря доверия ведет молодежь в социальные сети и мессенджеры, где зачастую информацию распространяют «неответственные» люди. Решение видится в формировании “информационного иммунитета”.

Елена Березина, заместитель главного редактора «Российской газеты», поделилась своим взглядом на проблему фейков, отметив, что традиционные СМИ сталкиваются с ней уже десятилетиями. По ее словам, речь идет не столько о сложных дипфейках, сколько о простых сообщениях, в которых люди часто путают факты и мнения. Главная, по мнению Березиной, проблема – это «кризис медиапотребления»:

«Люди ищут не столько факты. Они хотят читать то, что им удобно, то, что им близко, то, что отвечает их эмоциональным установкам. С этим же мы не боремся. Давайте формировать культуру медиапотребления, в школах её вводить», – добавила спикер.

Кирилл Сидоров, директор по цифровому развитию ТАСС, подчеркнул, что агентство с момента своего основания в 1904 году занимается борьбой с дезинформацией. Он выразил скептицизм по поводу использования ИИ для борьбы с фейками. 

«Искусственный интеллект не позволяет бороться с фейками. Сейчас появился новый искусственный интеллект, но он, к сожалению, очень много придумывает. И проблема заключается в том, что, задавая ему вопросы, ты получаешь иногда правильные ответы, иногда неправильные. Иногда он сам себя опровергает»,рассказал Кирилл Сидоров.

Мария Мезенцева, советник министра цифрового развития, связи и массовых коммуникаций РФ, предложила трехуровневую систему противодействия фейкам, подчеркнув, что для этого необходимы комплексные меры.

Первый уровень – образовательный: важно обучать молодежь, школьников и студентов основам медиаграмотности, учить их отличать факты от мнений, определять первоисточники информации. 

Второй уровень – технологический: платформы, по мнению Мезенцевой, должны самостоятельно фильтровать фейковую информацию и маркировать ее. 

Третий уровень – государственное регулирование. Мезенцева считает, что на государственном уровне необходимо вводить маркировку информации, созданной с помощью искусственного интеллекта, включая видео, аудио и дипфейки. 

Юрий Синодов, директор по развитию СМИ2 и основатель Roem.ru, отметил, что количество низкокачественных новостей в СМИ растет из-за экономических трудностей. Это приводит к снижению зарплат журналистов и, как следствие, к ухудшению качества статей и проверок. Тем не менее, ИИ помогает в поиске информации, особенно на старых или объемных сайтах, где традиционные поисковики работают хуже.

В ходе сессии также развернулась оживленная дискуссия о маркировке контента, созданного искусственным интеллектом. Дмитрий Гуляев выразил сомнения в готовности к маркировке ИИ-контента. Он предложил рассмотреть альтернативу – маркировать контент, созданный человеком, учитывая, что ИИ становится все более активным создателем контента. Гуляев также поставил под сомнение цель маркировки.

Глава РАЭК также отметил, что даже если пользователь знает, что контент создан ИИ, это не всегда меняет его отношение к нему, в этой связи предложил создать рабочую группу по этому вопросу, которая в том числе спрогнозирует и опишет паттерны поведения пользователей, которые ожидаются в случае, если они столкнуться с промаркированным контентом - “ИИ” или “Человек”.. 

Участники дискуссии пришли к выводу, что ИИ пока является инструментом, за результат которого отвечает человек. При этом возникли опасения, что ИИ может «врать сильнее», генерируя несуществующие факты. Вопрос о необходимости введения своего рода цензуры или специальных систем хранения «доверенной» информации остался открытым, с учетом того, что цензура запрещена.