Наверх
13 мая 2021

Как соцсети с помощью манипуляций формируют нашу информационную повестку

©Federico Gambarini/ DPA/ Vostock Photo

В 1861 году по обнародовании императорского Манифеста «О Всемилостивейшем даровании крепостным людям прав состояния свободных сельских обывателей» Николай Некрасов написал стихотворение «Свобода» (опубликовано в 1869-м):

Знаю, на место сетей крепостных
Люди придумали много иных
Так!.. но распутать их легче народу.
Муза! с надеждой приветствуй свободу!

Поэт, щедро расставляя восклицательные знаки, не мог тогда помыслить, что через полторы сотни лет по миру вольготно раскинутся социальные сети, которые будут формировать нашу информационную повестку и манипулировать нашим к ней отношением.

Кто пускает пузыри?

Формирование информационного пространства не обязательно связано с манипуляцией. Но оно в любом случае ограничено хотя бы нашими физическими возможностями.

В 2011-м вышла книга известного интернет-активиста Илайи Парайзера «Пузырь фильтров: что Интернет скрывает от вас?» (Стараниями отечественных переводчиков автор получил женское имя Эли, а слово «пузырь» превратилось в «стену»). Представляя свою концепцию на культовой технологической конференции TED, Парайзер процитировал Марка Цукерберга: «Белочка, которая прямо сейчас умирает перед вашим домом, гораздо релевантнее для вас, чем то, что кто-то там умирает в Африке». Вот рекомендательные системы и стараются услужить. Используя огромный массив знаний о нас, наших действиях, наших предпочтениях, наших друзьях и их интересах, они создают информационные «пузыри», внутри которых мы вынужденно потребляем поставляемый контент. Через несколько лет после выхода книги ведущие платформы признали, что проблема действительно существует, и объявили, что работают над повышением объективности. Технически это просто – нужно минимизировать персонализацию информационной выдачи. Проблема, однако, в том, что анонимизация сильно подрывает бизнес-модель, где основным коммерческим активом выступают знания о клиенте.

Ничего принципиально нового в «пузырях» нет. СМИ давно известен «эффект эхо-камеры», когда информация, циркулирующая внутри закрытой системы, сама себя усиливает. Психологи описали множество механизмов группового подкрепления и конформности, когда люди меняют свое мнение из-за реального или даже воображаемого влияния со стороны авторитета или группы. Широкую известность получила «спираль молчания» Элизабет Ноэль-Нойман. Ее теория утверждает, что люди, опасаясь социальной изоляции или преследования, избегают высказывать свою точку зрения, если она противоречит доминирующим установкам в их окружении. Ноэль-Нойман критиковали в том числе за политическую ангажированность, а больше – из-за прошлого: в молодости Элизабет успела побыть активисткой национал-социалистического профсоюза студенток и даже встречалась с фюрером, а ее научные и публицистические статьи 1940-х содержат антисемитские высказывания. Однако «спираль молчания» остается весьма популярной, а книга с метафоричным подзаголовком «Общественное мнение – наша социальная кожа» стала почти культовой.

Модерация или цензура?

Даже когда платформы целенаправленно воздействуют на распространяемый контент, речь не всегда идет о манипуляции. Стоит также различать цензуру и модерацию. Некоторые полагают, что разницы нет. А раз так, нет смысла жонглировать словами. Но на самом деле различие есть, и оно принципиальное. Цензурирование – это исполнение закона, который запрещает тот или иной контент. Не только здесь и сейчас или конкретно в Сети интернет, но вообще всегда и везде. Можно обсуждать, насколько закон плох или хорош, но его надлежит исполнять. За нарушение положено наказание.

Иностранным интернет-ресурсам, замеченным в цензуре, пригрозили блокировкой

В западной практике говорят о первичном регулировании – требованиях, которые устанавливают к содержанию, безопасности данных, защите прав интеллектуальной собственности. С другой стороны, платформы дают пользователям возможность публиковать свой контент, и здесь действует вторичное регулирование, касающееся их как посредника и оператора данных. При этом не всё, что допускает закон, является желательным или приемлемым. Модерирование – это выполнение правил. В том числе устанавливаемых самой платформой. В конце концов, это коммерческие предприятия по предоставлению услуг. А пользоваться ими или нет – дело сугубо добровольное. Хотя такой подход ведет к различным этическим и юридическим коллизиям.

Модерация больше касается не содержимого, а того, как оно подается. В публикуемый контент может быть внесена правка. Как правило, техническая. Например, нецензурная лексика будет заменена на звездочки. Редактированием платформы обычно не занимаются. Зато охотно добавляют от себя. Например, превращают авторский контент в гипертекстовой, направляя пользователей на информационные и рекламные ресурсы по своему усмотрению.

Кроме того, контент может быть снабжен комментариями и маркировкой. К частичной маркировке относятся вставки, указывающие статус той или иной организации (например, террористическая) или источника (например, иноагент). К полной – вызывающие множество нареканий попытки обозначать контент как недостоверный. Проблема не в системе и даже не в качестве оценки, сколько в дискриминационной практике, которой придерживаются Twitter, Facebook и другие. Разновидность маркировки – различные рейтинги, присваиваемые пользователям, участвующим в создании и обсуждении контента.

Сам контент можно продвигать или, наоборот, ограничивать, используя различные механизмы приоритизации. Не обязательно блокировать физически, достаточно наложить ограничения на возможности монетизации. Или усложнить доступ – именно так Twitter поступал с постами Дональда Трампа, заставляя пользователей переходить по дополнительным ссылкам. А физическое ограничение – это собственно фильтрация, которая допускает или отклоняет тот или иной контент. При этом решение может зависеть не только от содержания, но и от аудитории. Так работают возрастные ограничения. Так же, по идее, должны работать и географические – платформы все больше сталкиваются с тем, что в различных юрисдикциях действуют свои правила. И либо они будут их соблюдать, либо им придется свернуть там свой бизнес.

Что? Где? Когда?

Вся эта машина может работать централизованно. Но по мере роста объемов контента, числа пользователей и сложности задач модерация становится всё более распределенной. Это также удобно с точки зрения ведения бизнеса.

А вот с точки зрения пользователей гораздо важнее, когда осуществляется модерация: до или после публикации. Пользователи хотят, чтобы все происходило в реальном времени. На деле модерация продолжается всё время жизни контента. Уже опубликованный материал может быть дополнительно промаркирован. Может быть частично или полностью изъят. Может быть ограничен доступ к его комментированию. А содержимое постоянно оценивается на предмет релевантности. Это происходит проактивно, когда платформы сами отслеживают ситуацию, и реактивно, когда они реагируют на жалобы, обращения и предписания.

Пользователям важно, чтобы процесс был прозрачным, понятным. Далеко не всегда платформы уведомляют о том, что контент подвергся модерации и по каким причинам. Это касается не только потребителей, но и собственников контента. Тем более им не всегда дают возможность оспорить то или иное решение. И даже когда такая возможность имеется, воспользоваться ею может быть слишком сложно, долго и затратно. Здесь платформы имеют очевидное нечестное преимущество, которое, однако, не считается неэтичным.

«Долой 230!»: что Трамп собирается делать с соцсетями

Но и проблем у платформ хватает. О масштабах говорят цифры. В первом квартале этого года Facebook ежедневно посещали около 1,8 млрд человек в сутки. За этот период заблокировано или скрыто почти 2 млрд спамовых сообщений и почти столько же фейковых аккаунтов – эта цифра в последнее время заметно подросла. На таком фоне 107 млн единиц недопустимого или нежелательного контента не выглядят очень страшно. Но это более миллиона сообщений каждый день. Здесь с большим отрывом лидируют взрослая порнография и сексуальный контент, дающие почти 40% нарушений. Около четверти приходится на изображение насилия. По 7–8% дают терроризм, выражение ненависти, оружие и наркотики, детская порнография. Замыкают список кибербуллинг и суициды. Все прочее – в пределах погрешности. Похожая картина и у других платформ.

Невозможно проверить всё и сразу. А постоянно меняющиеся требования еще и вынуждают осуществлять перепроверки задним числом. Бизнес должен постоянно соотносить стоимость решений и риски возможных последствий. Финансовые риски просчитать относительно просто. И зачастую компании дешевле «откупиться» штрафами, чем внедрять решение. Гораздо сложнее предугадать общественную реакцию и политические последствия, которые могут оказаться весьма серьезными. Тут очень показательно то, что происходит вокруг Facebook. Беспрецедентные штрафы, которые получила компания, – это для нее неприятно, но не слишком обременительно. А вот вероятность того, что дорвавшиеся до власти в США демократы именно Facebook выберут на роль мальчика для битья, довольно высока.

Что скажет доктор?

Когда-то модерация осуществлялась вручную. Теперь всё больше работают программы, которые выполняют рутинные операции, дают предварительную оценку, помогают людям принимать решения. В основном это различные алгоритмы машинного обучения, обрабатывающие текст, изображения, звук, видео и метаданные контента с учетом максимально широкого контекста.

С точки зрения эффективности важно, сколько стоит результат и как быстро мы можем его получить. Ручная работа – это всегда долго и довольно дорого. Некоторые алгоритмы тоже весьма затратны с точки зрения вычислительных ресурсов. Не все алгоритмы способны достаточно быстро работать на больших объемах данных. Не все достаточно хорошо справляются с информацией определенного вида.

Что заменяет китайцам запрещенные в КНР западные соцсети

С точки зрения результативности мы имеем дело с чувствительностью и специфичностью. Точно так же, как, например, при клинических испытаниях. Чувствительность – это процент правильно поставленных диагнозов. Больной определен как больной; запрещенный контент заблокирован. Специфичность – процент правильных отрицательных решений. Больного не записали в здоровые; нормальный контент не помечен, как вредный. Соответственно, мы можем посчитать, сколько будет ложноположительных и ложноотрицательных больных. Исходя из этих показателей, можно оценить, как работает тест. Точность – лишь одна из полутора десятков характеристик.

К сожалению, чувствительность и специфичность очень часто находятся в противоречии. Чем чувствительнее тест, тем менее он специфичен. Это интуитивно понятно: если при каждом чихе мы будем записывать человека в больные, мы, конечно, не пропустим тяжелый случай, но у нас будет много ложных. И наоборот. В жизни приходится принимать решение, исходя из того, что опаснее. Если, скажем, речь идет о действительно тяжелой и заразной болезни, пропускать никого нельзя. На практике можно использовать несколько тестов. Сначала «гребем» всех подозрительных, а потом «отпускаем» тех, кто ни при чем.

Так же, как рыболовная сеть, социальная отцеживает и объячеивает контент. При отцеживании косяк рыбы обметывается неводом или тралом, после чего улов вытаскивают, а вода стекает. При объячеивании рыба запутывается в сетях жаберными крылышками. И чем сильнее пытается освободиться, тем крепче попадает в сети.

Читать полностью (время чтения 6 минут )
Избранные статьи в telegram-канале ProfileJournal
Больше интересного на канале Дзен-Профиль
Самое читаемое
13.05.2021
12.05.2021