Команда ННГУ имени Н. И. Лобачевского создает нейросетевую платформу AutoFactCheck, которая помогает распознать фейки, манипуляции и потенциально опасную информацию в интернете. Об этом изданию «Живем в Нижнем» рассказали участники проекта.
Изначально прототип платформы просто проверял вверенный ей текст на дезинформации. Система по-прежнему выдает оценку «правда/ложь», опираясь на надежные и проверенные источники. Однако сейчас разработчики учат свою платформу «копать глубже».
Теперь нейросеть разбирает текст на девяти уровнях. Искусственный интеллект учится выявлять манипуляции автора: игру на эмоциях, склейку цитат, скрытый смысл и так далее. Не останутся незамеченными оскорбления и деструктивные призывы, которые «вшиты» в текст.
Кроме того, платформа улавливает то, как автор преподносит проблему, выносит ли моральные суждения, подталкивает ли к действию и т.п. Вывод — в виде понятных диаграмм и графиков. О том, что еще могут распознать нейросети благодаря разработке нижегородской команды, читайте в нашем специальном материале.

