Живем в Нижнем
Главная > За фасадом слов: как в ННГУ учат нейросеть видеть фейки и манипуляции
Статьи

За фасадом слов: как в ННГУ учат нейросеть видеть фейки и манипуляции

Разбираемся, как работает система, которая сканирует текст на искажения, токсичность и скрытые смыслы

На фото (слева направо): младший научный сотрудник центра применения ИИ в журналистике и массовой коммуникации ННГУ Илья Померанцев, руководитель центра применения ИИ в журналистике и массовой коммуникации ННГУ Людмила Макарова, лаборант-исследователь центра применения ИИ в журналистике и массовой коммуникации ННГУ Даниил Буйлов

Что общего у лингвиста, юриста и криминалиста? Теперь их методы работы объединяет в себе нейросетевая платформа AUTOFACTCHECK, созданная в Университете Лобачевского для борьбы с фейками. Система не только изобличает дезинформацию, но и вскрывает контекст, нарративы и манипулятивные приемы. Портал «Живем в Нижнем» узнал, как это работает.

За фасадом слов: как в ННГУ учат нейросеть видеть фейки и манипуляции
Команда проекта AUTOFACTCHECK
(слева направо): Даниил Буйлов, Юрий Баташев, Алексей Солодовников, Людмила Макарова, Илья Померанцев, Сергей Камнев.

Цифровая эволюция

Сначала система просто проверяла факты: вы загружали текст, а она анализировала, насколько он правдив. Эта идея родилась несколько лет назад как реакция на растущий поток непроверенной информации. Но сейчас откровенную ложь сменили хитрые манипуляции, искажения и скрытые смыслы. Проверки голых фактов уже недостаточно.

«Мы решили перевести фактчекинг (проверку фактов) в плоскость информационной безопасности. Наш инструмент прежде всего позволит соблюсти и государственный интерес: противостоять деструктивному влиянию со стороны недружественных стран с использованием, в том числе, технологий ИИ. Наша программа становится стратегической и общественно значимой», – отметила руководитель центра применения ИИ в журналистике и массовой коммуникации ННГУ Людмила Макарова.

Платформа, которую создают в Университете Лобачевского, превращается в детектива: она изучает преподнесенный ей текст как лингвист, юрист и эксперт-криминалист одновременно. База осталась прежней: система находит в тексте факты и сверяет их с надёжными источниками. Но теперь вместо простого ответа «правда или ложь» она проводит глубокий анализ по девяти (а скоро и десяти) параметрам.

Грани истины

Нейросеть понимает, какую позицию или ценности продвигает текст. Её обучили на множестве примеров, поэтому она может распознать даже новые, ранее незнакомые идеи, анализируя слова-маркеры и общий контекст. Система находит логические ошибки и манипуляции, например, когда цитаты вырывают из контекста или пытаются провоцировать эмоции. Таким образом можно увидеть, как именно вас хотят обмануть.

«Мы ведем активную работу с лингвистами, чтобы выявить нарратив, который можно условно отнести к определенному смысловому дискурсу. Это можно сделать, если знать примеры различных нарративов и их признаки», — говорит лаборант-исследователь центра применения ИИ в журналистике и массовой коммуникации ННГУ Даниил Буйлов.

Нейросеть «ловит» оскорбления и потенциальные деструктивные призывы. По словам разработчиков, главное здесь — контекст. Одно слово само по себе ничего не значит, но в определённой ситуации оно может стать опасным оружием.

Система «сканирует» эмоции и изучает, как текст влияет на наше восприятие. Она определяет, как автор преподносит проблему, предлагает ли решения, выносит ли моральные суждения, и что он на самом деле хочет: просто сообщить новость или подтолкнуть вас к действию. Также программа автоматически определяет тему: политика, экономика, здоровье и т.д. Весь этот разбор система выдает не в виде скучного отчета, а в наглядных и понятных графиках.

За фасадом слов: как в ННГУ учат нейросеть видеть фейки и манипуляции
Пример анализа текста на двух уровнях — риторические стратегии и идеология

Технологии и философия

«Мозгом» системы может стать любая современная нейросеть — зарубежная (вроде GPT или DeepSeek) или российская, например, Giga Chat. Разработчики тестируют разные модели, чтобы выбрать самую эффективную. Cкоро результаты работы проекта станут более эффективными: команда переносит систему на собственное оборудование, приобретенное по программе «Приоритет 2030». Свое «железо» сделает ее независимой и позволит масштабировать проект без оглядки на сторонних поставщиков.

Сейчас платформа собирает и анализирует данные только с сайтов. Однако команда намерена начать работать и с соцсетями, и с мессенджерами (в первую очередь, Telegram), где немного другая структура данных.  А еще планируется перевод аудио и видео в текст с последующим полным анализом и работа со ссылками, которые содержат в себе информацию для проверки. Не исключено, что в будущем нейросеть сможет сама искать в Сети нужные публикации.

«Есть два подхода к проблеме распространения недостоверного и негативного контента: запретить или создать инструменты, которые позволят его регулировать. Мы видим свою задачу в создании экосистемы проверенной информации, которая позволит без запретов просто подсвечивать негативный, манипулятивный контент. Это история попытки уйти от запретительных мер в сторону свободы слова, свободного интернета, свободного пользования технологий ИИ», – объяснил младший научный сотрудник центра применения ИИ в журналистике и массовой коммуникации ННГУ Илья Померанцев.

Идея заключается в том, чтобы дать и рядовому пользователю, и СМИ, и госорганам продвинутый инструмент для анализа. С его помощью СМИ смогут повысить свою репутацию, читатели — критически оценивать информацию, а власти — точечно реагировать на действительно опасный контент.

Автор:

Материалы по теме

Подписаться
Уведомить о
guest
0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии