Живем в Нижнем
Главная > Нижегородские ученые научат нейросеть распознавать опасную информацию в Сети
В мире людей

Нижегородские ученые научат нейросеть распознавать опасную информацию в Сети

Искусственный интеллект разбирает текст на девяти уровнях

На фото команда проекта AUTOFACTCHECK (слева направо): Даниил Буйлов, Юрий Баташев, Алексей Солодовников, Людмила Макарова, Илья Померанцев, Сергей Камнев.

Команда ННГУ имени Н. И. Лобачевского создает нейросетевую платформу AutoFactCheck, которая помогает распознать фейки, манипуляции и потенциально опасную информацию в интернете. Об этом изданию «Живем в Нижнем» рассказали участники проекта.

Изначально прототип платформы просто проверял вверенный ей текст на дезинформации. Система по-прежнему выдает оценку «правда/ложь», опираясь на надежные и проверенные источники. Однако сейчас разработчики учат свою платформу «копать глубже».

Теперь нейросеть разбирает текст на девяти уровнях. Искусственный интеллект учится выявлять манипуляции автора: игру на эмоциях, склейку цитат, скрытый смысл и так далее. Не останутся незамеченными оскорбления и деструктивные призывы, которые «вшиты» в текст.

Кроме того, платформа улавливает то, как автор преподносит проблему, выносит ли моральные суждения, подталкивает ли к действию и т.п. Вывод — в виде понятных диаграмм и графиков. О том, что еще могут распознать нейросети благодаря разработке нижегородской команды, читайте в нашем специальном материале.

Автор:

Материалы по теме

Подписаться
Уведомить о
guest
0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии