新闻软文 или заказ журналистской статьи для продвижения какого-либо продукта или распространения дезинформации. Хотите дискредитировать журналиста? Это будет стоить 55 000 долларов. Хотите получить сто тысяч подписей реальных людей под петицией в Change.org? 6 000 долларов. А китайские статьи в “мягком” стиле для продвижения какого-либо продукта или распространения дезинформации стоят всего 15 долларов. Сотрудники специализирующейся в области компьютерной безопасности компании Trend Micro изучили ситуацию на китайском, русском, арабском/ближневосточном и английском рынках. Их исследование показывает, что “все, включая продвижение в социальных медиа, создание фейковых комментариев и даже влияние на онлайн-голосование, продается по очень разумным ценам”. “Неожиданно для себя мы обнаружили, что кампании по распространению фейковых новостей – далеко не всегда результат работы автоматических ботов, ее могут выполнять и реальные люди, использующие крупномасштабные краудсорсинговые программы”, – добавляют авторы доклада.
Во впечатляющем детальном исследовании “Машина поддельных новостей: как пропагандисты используют Интернет и манипулируют общественностью” приведены прайс-листы на нескольких языках и конкретные примеры, имеющие отношение к нескольким странам. Ниже вы можете видеть список услуг, взятый с российского форума SMOService, “предлагающего широкий спектр услуг, которые можно получить с большими скидками (до 55 процентов) и в виде “VIP-пакета”. Замечательные предложения из этого списка впечатляют: его авторы помогут вам увеличить численность членов групп как за счет пользователей, имеющих реальные аккаунты, так и за счет ботов; поддерживают разнообразные платформы (Telegram, Periscope и MoiMir); отправляют запросы на добавление в друзья; с их помощью вы можете сделать так, чтобы какой-то пост или группа в социальных сетях получили много оценок “не нравится”; они обеспечат популярность видео на сайте YouTube; а также предложат секретные услуги для VIP-пользователей, привязанные к геолокации сервисы и службу поддержки клиентов в режиме 24/7″.
“Сейчас всем должно быть очевидно, что социальные сети оказывают очень большое влияние на реальный мир, – пишут авторы исследования. – Мы больше не можем относиться к ним как к “[неважным] вещам, место которым только в Интернете”. Происходящее внутри Facebook, Twitter и других платформ социальных медиа может изменить ход истории для наших народов”.
Можем ли мы просто использовать компьютерные программы, чтобы справиться с этой проблемой? (К сожалению, нет.) Конкурс Fake News Challenge, “результат работы более 100 добровольцев и 71 команды, представителей академических и промышленных кругов со всего мира”, ставит своей задачей “понять, как технологии создания искусственного интеллекта, в частности машинное обучение и автоматическая обработка естественного языка, могут быть использованы в решении проблемы фейковых новостей” (среди консультантов этого проекта – Алексиос Мантзарлис из Института Пойнтера и Клер Уордл из First Draft News). В первом конкурсе командам-участницам предложили сосредоточиться на поиске решения, включающего оценку относительной перспективы (или позиции) двух фрагментов текста, что “подразумевает оценку того, как два отрывка текста относятся к теме, утверждению или проблеме”, решение этой задачи “может быть полезным для создания программ по провеке фактов искусственным интеллектом”. Вот информация о победителях этого конкурса. Вот отрывок из статьи Тома Симонайта, опубликованной на сайте Wired:
“Большую часть работы по проверке фактов и отслеживанию фейковых новостей приходится делать вручную, и я надеюсь, что мы сможем это изменить, – говорит Делип Рао, организатор Fake News Challenge и основатель занимающейся созданием систем машинного обучения компании Joostware. – Если вы обнаружите фейковую новость в первые несколько часов [после ее появления в сети], у вас есть шанс предотвратить ее распространение, но через 24 часа это будет уже сложно сделать”.
В ближайшие месяцы Fake News Challenge планирует объявить и другие конкурсы. Одна из идей следующего конкурса – дать командам задачу разработать программу, которая сможет считывать наложенный на изображения текст. По словам Рао, после того как Google и Facebook ввели новые правила контроля за распространением фейковых новостей, такой формат (наложения текста на фотографии) начали использовать сайты, распространяющие фейковые новости, – это позволяет им продолжать собирать деньги рекламодателей .
Facebook просит вас задавать свои “трудные вопросы”. Facebook “ищет новые возможности более открыто говорить о сложных вопросах“, что пока, судя по всему, означает, что пользователи могут отправлять свои ответы на такие вопросы по адресу hardquestions@fb.com. Представители компании заявили, что займутся изучением ответов на такие вопросы, как “Кто должен определять, что такое фейковые новости и чем они отличаются от спорного политического заявления?” и “Полезны ли социальные медиа для демократии?”. С одной стороны, это кажется смешным; с другой стороны, хочется вспомнить предложение сотрудника Института Пойнтера Алексиса Мантзарлиса о том, что одним из способов борьбы с “разделением по партийному признаку в подходе к вопросу о проверке фактов” (например, многие консерваторы не доверяют фактам) может быть “создание считывающих панелей, которые смогут предоставить важные данные”, так что, возможно, то, что делает Facebook, – не такая уж плохая идея.
Translation in Russian by IJNet.org.