В соцсети Facebook тестируют программу для предотвращения конфликтов в комментариях
В соцсети Facebook тестируют программу для предотвращения конфликтов в комментариях
Искусственный интеллект начнет помечать оскорбительные комментарии, размещаемые в сообществах социальной сети Facebook. Предполагается, что благодаря программе получится упростить работу администраторов групп, сообщает gazeta.ru со ссылкой на CNN.
В результате пользователи, отвечающие за модерацию страниц, будут получать уведомления о возможном конфликте среди подписчиков.
Записи с неприемлемой лексикой в группах получат плашки moderation alert ("оповещение модератора").
С новым способом маркировки и оповещения станет возможным своевременно принимать необходимые действия для локализации конфликта в сети. Однако новые ограничения нельзя будет применить к таким темам, как вакцинация, политика, а также культурные различия.
Программный инструмент, как считают в Facebook, пригодится 70 млн пользователей, управляющим страницами.
После того как администратор узнает о конфликте, он сможет замедлить дискуссию.