В пузыре фильтров: как мы сами подбираем новости при помощи «лайков» и опасно ли это?
Социальные сети как источник информации: теперь мы в некотором смысле сами подбираем для себя новости при помощи «лайков». Хорошо это или, напротив, опасно?
Когда-то Интернет называли окном в большой мир. Сегодня эту роль взяли на себя социальные сети, и прежде всего Facebook. По данным отчета по цифровым медиа Reuters Institute (Reuters Digital News Report), от 21% до 55% пользователей узнают новости из социальных сетей. Удивительно то, что это больше доли посетителей новостных интернет-журналов. Другими словами, для многих теперь уже сеть Facebook стала окном в большой мир, причем для каждого пользователя своим. Кому-то открывается утопическая картина с видео с котятами и афоризмами на эзотерические темы, кому-то — обширное пространство, где ведутся оживленные дискуссии по правам пользователя в Интернете, кому-то — жестокий мир, полный ненависти и насилия.
Facebook понимает, чем мы интересуемся, знает, что нам нравится читать и смотреть, и какую информацию мы ищем. И Facebook же хочет поглотить всецело наше внимание любыми возможными способами. Лента новостей подбирается таким образом, чтобы мы лишний раз не закрывали не интересующие нас новости. Facebook постоянно подстраивается под нас, показывая только то, что наверняка нам понравится и укрепит нас в нашем мнении. То есть в зависимости от наших взглядов алгоритм, по которому работает Facebook, способен усыпить бдительность или, наоборот, подстрекать, создавая мир, который нам нравится.
Каждому свой личный мир
Специалисты по вопросам коммуникации, говоря об этом, используют термин «пузырь фильтров» — filter bubble. Понятие было введено более пяти лет назад американцем Илаем Парайзером (Eli Pariser). Когда в 2010 году взорвалась нефтяная платформа Deepwater Horizon, Парайзер попросил двух товарищей поискать в Google информацию по ключевому слову «British Petroleum». Один из них получил инвестиционные новости о компании BP, второй — об экологической катастрофе, вызванной взрывом. Тогда Парайзер пришел к выводу, что свободный Интернет — это иллюзия. Точнее говоря, когда мы пользуемся Сетью, мы попадаем в своеобразный пузырь, который содержит только те новости, которые выбирают алгоритмы, исходя из наших интересов и взглядов.
Профессор университета Кайзерслаутерна Хендрик Шпек, который занимается исследованиями в области социальных средств коммуникации, с такой теорией согласен: «Пользователям не интересно читать подряд все публикации на Facebook, поэтому мы видим то, что отображают нам алгоритмы. Алгоритмы определяют, что имеет или может иметь значение для пользователя». Если какая-то запись получает множество «лайков», то есть если большое количество пользователей из списка друзей комментирует ее или делится ею (контент якобы отвечает их интересам), то она появляется в вашей хронике, даже несмотря на то, что отмечать как понравившуюся вы ее не собирались.
Кричащий когда-нибудь будет услышан — для социальных сетей этот девиз даже более актуален, чем для классических средств массовой информации. Политические деятели это поняли уже давно. Срочные новости распространяются со скоростью молнии, и чем больше обсуждений, тем лучше работают алгоритмы. Новость бросается в глаза и распространяется дальше. То же самое касается и фейковых новостей, распространяемых активными пользователями по всему миру с определенной целью: взбудоражить и расколоть общественность и укоренить какое-либо мнение.
Больше «лайков» — больше веса
По словам профессора, алгоритмы — это чистая математика, ни больше ни меньше. Тем не менее, они оказывают влияние на нас и на формирование общей картины. «В то время как в обычной жизни мы постоянно сталкиваемся с чужим мнением, в виртуальной все далеко не так», — говорит он. Благодаря возможности очень быстро находить форумы и платформы по своим предпочтениям, в цифровом мире у нас так же быстро складывается впечатление, что наши идеи верны, что наши интересы — это все, что, собственно, есть интересного в мире, и с такой мыслью мы вступаем в сообщества людей, которые разделяют наши взгляды. «Это автоматически приводит к укреплению (самоукреплению) наших доводов», — говорит Шпек.
Таким образом, алгоритмы выполняют функцию фильтрации. В широком масштабе они также влияют на формирование нашего политического мировоззрения, убежден Маркус фон Йордан, один из основателей кураторской платформы piqd, на которой публикуются ссылки на интересные тексты в Сети, причем, как сам он подчеркивает, с использованием не алгоритмов, а знаний по специальности: «Сеть Facebook не виновата в политической поляризации или радикализации — для этого она была бы слишком проста для нас. Но она тому способствует».
В чем же причина? «Facebook — это пространство, полностью свободное от ответственности за публикации». Говоря проще, писать в сети может любой желающий. А отклики получает то, что больше всего волнует, обсуждается и поражает. А пузырь фильтров все больше и больше раздувается в направлении наших кликов. Он может способствовать потере готовности не только идти на компромисс, говорит фон Йордан, но и принимать другое мнение и даже вообще угрожает способности пользователей общаться с другими людьми: «Мы же отвыкаем от предрасположенности к демократии». Даже во время выборов в США и других странах, где правые партии в последнее время укрепили свои позиции, пузырь сыграл решающую роль: «Facebook охватывает больше аудитории, чем все издания вместе взятые. Она уже давно перестала быть только платформой. Динамика ее внушает серьезные опасения».
Доверчивый алгоритм
Слово «динамика» довольно мягко описывает тренд, который наблюдается на Facebook вот уже почти год. Фейковые новости набирают больше популярности, чем настоящие, пользователи чаще их открывают, отмечают как понравившиеся и комментируют. Алгоритм не отличает (как минимум пока) фейковую новость от реальной, для определения степени важности новости ему достаточно масштабов социального взаимодействия. Таким простым механизмом, конечно, очень легко управлять. Мы бы даже сказали, использовать в своих целях. Каким образом — наглядно продемонстрировала кампания по выборам президента США, когда чрезвычайную популярность набирали десятки фейковых новостей. Подготовили ли работающие таким образом алгоритмы почву для победы Трампа, еще предстоит выяснить, но в любом случае из этого последовали выводы, и теперь Facebook работает над способом определения и обозначения фейковых новостей.
Сначала читаем, потом ставим отметку «Нравится»
Так же считает и специалист Федерального центра политического образования по вопросам специальных услуг для целевой аудитории Вальтер Штауфер. «Мы пользуемся Интернетом вот уже 20 лет, но нам по-прежнему не хватает условий для того, чтобы с полной ответственностью обращаться с такими явлениями, как пузырь фильтров. У молодежи до сих пор нет необходимого инструмента, и только поэтому пузырь фильтров существует». Тем не менее, тот факт, что пользователю кажется, что он укрепляется в своем мнении, когда оказывается все в том же пузыре на Facebook, — проблема не только мира цифровых технологий. «В аналоговом мире мне тоже хорошо, когда другие соглашаются с моим мнением, — говорит Штауфер. — Когда я нахожусь среди своих друзей, которые выражают похожее мнение, я тоже оказываюсь в пузыре фильтров». Правда, пользователи Facebook не могут выбирать, какая информация предстает их взору, и в этом, собственно, и заключается проблема.
Таким образом, проблема под названием «пузырь фильтров» сводится к одному: мы не научились более критически относиться к предлагаемому нам контенту. В этом мнении сходятся все специалисты. Очень часто пользователи полагают, что за новостями стоят авторитетные и надежные источники, а тут от них требуется способность критиковать эти самые источники — способность, которую обычный редактор газеты развивает в течение нескольких лет упорной работы и, тем не менее, говоря откровенно, зачастую сталкивается с трудностями. Среднестатистическому пользователю Facebook не хватает умения распознать достоверную новость и критически относиться к публикациям, когда это действительно необходимо.
Так появляются поспешно поставленные «лайки» или комментарии, в которых обнаруживается, что написавший их вообще не читал текст. Ожидать, что такой пользователь основательно будет проверять каждую новость на достоверность, — это что-то из области фантастики. Было бы намного полезнее, если бы пользователи Facebook научились как минимум не публиковать машинально каждую новость. Небольшая подсказка со стороны Facebook о том, что определенная новость может быть недостоверной, была бы первым шагом в правильном направлении. Цукерберг, совершите его!
Как разорвать пузырь фильтров
Пузырь фильтров наблюдается не только в соцсетях, но и по всему Интернету. Далее мы расскажем, как перекрыть информационный поток, который выдается алгоритмами рекомендаций. >Немного дисгармонии не помешает как минимум на Facebook. Нажмите пару раз на публикации, которые не вполне соответствуют вашим интересам и предпочтениям, чтобы подборка в ленте новостей стала шире.
> Удаление файлов cookie после каждой сессии немного сказывается на комфортности веб-серфинга, зато собирать данные для создания профиля пользователя и, например, подбирать по нему результаты по поисковому запросу становится несравнимо труднее.
> Анонимность в Интернете, хоть и не на сто процентов, но можно обеспечить в режиме инкогнито в браузере или при помощи анонимайзеров, например, TOR, которые в достаточной мере скрывают следы веб-серфинга.
> Электронные письма необязательно отправлять из бесплатного почтового ящика, которые поддерживаются рекламой. Почтовый сервис FastMail стоит от $30 в год (1800 рублей), он не содержит рекламы и поддерживает сразу несколько механизмов аутентификации.
ФОТО: компании-производители; Karlheinz Schindler/DPA/Legion-Media; iStockphoto/alexsl; Kris Krug/Wikipedia/CC BY-SA 2.0