| Название базовой системы (платформы): | Искусственный интеллект (ИИ, Artificial intelligence, AI) |
| Разработчики: | Московский технический университет связи и информатики (МТУСИ) |
| Дата премьеры системы: | 2025/10/27 |
| Технологии: | Data Mining, Речевые технологии |
Основные статьи:
- Киберзапугивание (кибербуллинг, киберсталкинг)
- Распознавание речи (технологии, рынок)
- Речевые технологии: на пути от распознавания к пониманию
- Data mining Интеллектуальный анализ данных
2025: Создание системы автоматического обнаружения кибербуллинга
В Московском техническом университете связи и информатики (МТУСИ) под руководством доцента кафедры «Информационная безопасность» Александра Большакова разработана система на базе искусственного интеллекта, способная автоматически обнаруживать и предотвращать кибербуллинг в социальных сетях. Технология использует машинное обучение для анализа текстов и распознает агрессивный контент с высокой точностью.
Кибербуллинг становится одной из главных угроз цифрового пространства. Скрываясь за анонимностью социальных сетей, злоумышленники атакуют других пользователей оскорблениями и угрозами, что может привести к серьезным психологическим последствиям для жертв.В «Т1» — большое укрупнение. TAdviser составил карту активов холдинга
Традиционные методы борьбы с кибербуллингом — «черные» и «белые» списки запрещенных слов — работают неэффективно. Они либо пропускают завуалированные оскорбления, либо блокируют безобидные сообщения, создавая массу ложных срабатываний.
Ученые МТУСИ предложили принципиально другой подход: использовать машинное обучение для анализа контекста и смысла сообщений, а не просто поиска «плохих» слов.
Система обучалась на датасете из 248 290 реальных комментариев из социальных сетей, которые были размечены на четыре категории:
- Нейтральный контент
- Оскорбления
- Угрозы
- Оскорбления и угрозы вместе
Алгоритм научился распознавать сложные паттерны агрессивного поведения и способен адаптироваться к новым формам кибербуллинга при появлении свежих данных.
Разработанная система показала высокую точность распознавания:
- Нейтральный контент — 99% точность
- Оскорбления — 84% точность
- Угрозы — 75% точность
- Оскорбления и угрозы вместе — 78% точность
Это означает, что система способна выявлять и блокировать подавляющее большинство случаев кибербуллинга, при этом практически не затрагивая безобидные сообщения. Контекстный анализ: в отличие от простых фильтров, система анализирует смысл и контекст сообщений, что позволяет распознавать завуалированные оскорбления и угрозы. Самообучение: алгоритм адаптируется к новым формам кибербуллинга, обновляясь при появлении новых данных.
Минимум ошибок: высокая точность распознавания снижает количество ложных срабатываний и не ограничивает свободу обычных пользователей.
| |
Кибербуллинг — серьезная социальная проблема, которая затрагивает миллионы людей, особенно молодежь. Разработка наших ученых предлагает эффективное технологическое решение для защиты пользователей социальных сетей от травли и агрессии. Это важный шаг на пути создания безопасного цифрового пространства для российских пользователей, прокомментировал Сергей Дмитриевич Ерохин, ректор МТУСИ.
| |
Разработанная система может быть интегрирована в социальные сети и мессенджеры для автоматической модерации контента. Технология способна работать в режиме реального времени, выявляя и блокируя агрессивные сообщения до того, как они будут прочитаны жертвой.
