
02 сен, 09:15
Ученые из Колорадского университета разработали алгоритм поиска и предсказания случаев кибермоббинга (намеренного оскорбления и запугивания пользователей) в социальной сети Instagram.
При помощи машинного обучения и методов языкового анализа специалисты смогли добиться 77% точности при поиске атак троллей и 60% точности при их предсказании.
Авторы проанализировали 2218 постов в социальной сети, разбив их на группы по проявления киберагрессии (один агрессивный комментарий) или кибермоббинга (два или более негативных или оскорбительных комментария). В выборках при помощи стандартных методов лингвистического анализа изучалось содержание комментариев и их агрессивный окрас.
Оказалось, что в “агрессивных” комментариях чаще всего использовались слова, которые относились к таким темам, как “религия”, “смерть”, “наркотики”, “сексуальность”, “злость”, “грусть” и тому подобное.
Одним из необычных результатов исследования стал тот факт, что комментарии с большим количеством нецензурной лексики, как правило, не были агрессивными, чаще всего они были связаны с политикой или спортом, а в некоторых случаях авторы квалифицировали их как “дружескую болтовню”.
На основании этих данных ученые создали набор признаков, по которым обучали программу-классификатор.
Точность определения программой возможных атак кибертроллей составила 77%. Далее ученые пытались предсказать то, вызовет ли фотография негативный отклик в комментариях. Для этого использовалось машинное обучение, а в качестве признаков – содержание фотографии и профиль пользователя. Точность предсказания составила 60%. В дальнейшем ученые планируют повысить точность работы алгоритма.
Инф. finance.ua
Адрес новости: http://e-news.com.ua/show/376025.html
Читайте также: Финансовые новости E-FINANCE.com.ua