В июньском сборнике трудов Национальной академии наук США были обнародованы результаты работ по изучению «вирусного эффекта» эмоциональной окраски публикаций в социальных сетях. Исследование было проведено в 2012 г. специалистами Корнельского и Стэнфордского университетов.
Эксперименты проводились на выборке пользователей сети Facebook и продолжались ровно одну неделю, с 11 по 18 января 2012 г. Отбор участников был проведен «слепым» методом по идентификационному номеру User ID. Численность целевой группы по каждой критериальной задаче составляло ~155 тыс. человек. Всего для участия в экспериментах было привлечено 689 тыс. чел.
Для оценки эмоциональной окраски публикуемых постов использовался словарь «положительных» и «отрицательных» терминов, предоставляемый программой LIWC. Оно была подключена к системе Hadoop Map/Reduce вместе с фильтр-системой ленты постов. Такая архитектура позволила количественно оценить выборку получаемых постов без предоставления исследователям доступа к исходному тексту публикуемых сообщений.
Как показали результаты, 22,4% постов содержали слова с отрицательной эмоциональной окраской, тогда как положительный фон был зарегистрирован для 46,8% попавших в выборку сообщений. Общее число постов, подвергнутых анализу, составило 3 млн., а число прочитанных слов — 122 млн. Эмоциональный настрой, оцененный как положительный, был зарегистрирован для 4 млн. сообщений (3,6%), отрицательный — 1,8 млн. (1,6%).
Реакция блогосферы
Публикация материалов исследования вызвала неоднозначную реакцию в обществе и СМИ. Протесты основывались прежде всего на том факте, что пользователи Facebook не были поставлены в известность об эксперименте. Это было воспринято как попытка манипуляции их сознанием. Опровергая претензии, авторы исследования утверждали, что они действовали строго в рамках соглашения, принимаемого пользователями при регистрации в сети.
Facebook аргументировала свою позицию тем, что «производительность» при публикации постов намного превышает физические возможности человека к прочтению полной ленты постов френдов без исключения. Это также накладывает сверхвысокие требования к аппаратной производительности Facebook, которая не должны выходить за определенные ограничения. Поэтому в сети применяется специальный механизм ранжирования постов, попадающих в пользовательскую ленту для прочтения, который выстроен на критериях релевантности интересов и вовлеченности конкретного пользователя в процесс обсуждения. Постоянное совершенствование этого механизма заставляет компанию развивать алгоритмическую базу, поэтому проведение подобного рода экспериментов, в том числе психологической направленности, неизбежно.
Большинство возражений со стороны блогосферы касались прежде всего этической стороны вопроса. Если возражений по поводу использования приемов для придания позитивного настроя пользовательским постам не высказываются, то применение методов, ведущих к обратному эффекту, вызывает явно негативную реакцию. В комментариях подчеркивается, что в законодательстве до сих пор отсутствуют акты, регламентирующие допустимые приемы манипуляций со стороны компаний, поддерживающих работу социальных сетей.
В комментариях особо подчеркивается, что применяемыми методами бизнес вторгается в личную жизнь граждан, охраняемую законами.
Защитники эксперимента со своей стороны отвергают все нападки, ссылаясь на то, что исследование было краткосрочным, не имело целей персонального воздействия и не выходило за рамки моральных принципов, принятых в обществе. Публикуемые результаты, по их оценкам, не содержат «революционных» выводов, поэтому не могут служить базой для разработки более мощных средств психологического воздействия на пользователей социальных сетей.