2018/09/07 15:36:31

Мониторинг и анализ социальных сетей

.

Основная статья: Социальные сети

2018: Выявление 20 тыс. потенциальных самоубийц в Китае

Искусственный интеллект помог китайским ученым выявить 20 тысяч потенциальных самоубийц и оказать им психологическую помощь, сообщило в январе 2018 года ТАСС со ссылкой на агентство "Синьхуа".[1]

ИИ в Китае помог оказать психологическую помощь 20 тыс. потенциальных самоубийц

Под пресловутым «искусственным интеллектом» понимается система автоматизированного мониторинга социальных сетей, которая сама способна определить суицидальные тенденции и «профилактическим» порядком отправлять им письма со словами поддержки и координатами психологов, готовых помочь.

Как отметил один из кураторов проекта, сотрудник Академии наук Китая Чжу Тиншао, только 20% нуждающихся в помощи готовы за ней обратиться самостоятельно, хотя вполне охотно делятся своими мыслями в онлайне.

Информационную базу для выявления потенциальных самоубийц составили результаты исследования 2016 года. Тогда, проанализировав более 4000 публикаций в социальных сетях, прямо или косвенно посвящённых суициду, учёные вычислили наиболее часто встречающиеся лингвистические конструкции, которые теперь и служат маркерами, вызывающими срабатывание «антисуицидального» ИИ.

По утверждению Чжу Тиншао, сервис самостоятельно отправляет сообщения со словами поддержки и советами, сохраняя анонимность получателей. В особо тяжёлых случаях программа также информирует интернет-пользователей о горячих линиях и центрах оказания помощи.

В конце ноября 2017 года аналогичную систему запустила социальная сеть Facebook: её «искусственный интеллект» проверяет публикации пользователей на предмет наличия «суицидальных» признаков, и, если таковые выявляются, направляет рекомендации по получению психологической помощи либо самому пользователю, либо его/её друзьям, либо тем, кто первыми прокомментировал «суицидальное» сообщение, при условии, что они проживают в той же местности.[2] Сервис уже развёрнут по всему миру, кроме Европейского союза, где законодательство о защите частной информации создаёт серьёзные трудности для использования этой технологии.

Помимо «искусственного интеллекта», впрочем, у Facebook есть целый ряд партнёрских организаций по всему миру, которые специально занимаются профилактикой суицидов и готовы оказывать помощь пользователям. Когда стало известно о запуске системы Facebook, реакция у сетевой общественности была неоднозначной: ожидаемым образом возникли опасения, что инвазивный «искусственный интеллект» может быть использован отнюдь не ради благих целей. Руководители Facebook поспешили выступить в защиту технологии.

Директор по безопасности Алекс Стеймос (Alex Stamos), в частности, написал:

«
Пугающий/неблаговидный/вредоносный способ использовать ИИ — это риск, который будет существовать всегда. И именно поэтому сейчас необходимо установить адекватные нормативы, обеспечивая баланс между использованием данных и практической пользой, и постоянно иметь в виду возможные перекосы.
»

Со своей стороны, Марк Цукерберг (Mark Zuckerberg) заявил, что эта технология — первый шаг к углублённому пониманию искусственным интеллектом языковых нюансов, что со временем позволит идентифицировать не только потенциальный суицид, но и проявления кибербуллинга и хейтерство.

«
Любые средства, позволяющие предотвращать трагедии, хороши, но, с другой стороны, и опасения по неправомерному использованию ИИ выглядят оправданными, — считает Роман Гинятуллин, эксперт по информационной безопасности компании SEC Consult Services. — На данный момент ИИ, к счастью, представляет собой лишь инструмент, который люди могут использовать по своему усмотрению. По сути только от операторов ИИ и зависит, для чего он будет использован — для спасения людей или, например, для вторжения в их частную жизнь. Может оказаться, что дальнейшее развитие ИИ потребует пересмотра существующих законов о приватности.
»

Примечания