Взгляд инсайдеров на расследование Комитета по социальным сетям от 6 января.

This article is co-published with Tech Policy Press. Photo credit: Committee members attend the fifth hearing held by the Select Committee to Investigate the January 6th Attack on the U.S. Capitol on June 23, 2022 (Doug Mills-Pool/Getty Images)

На исходе 2022 года Специальный комитет по расследованию нападения на Капитолий. Соединенных Штатов 6 января опубликовал свой окончательный отчет. В нем основное внимание уделялось поведению бывшего президента Дональда Трампа за несколько недель до нападения, описывая ряд усилий по отмене результатов выборов 2020 года с помощью юридических уловок и откровенного насилия. Но акцент в отчете на Трампе означал, что важный контекст был оставлен на полу разделочной. В то время как Трамп сыграл важную роль в организации нападения, сети правого толка, состоящие из всех, от ведущих «говорящих голов» до экстремистских вооруженных группировок, способствовали массовому распространению теорий заговора и крайне правого контента в социальных сетях. 

Это распространение не могло бы произойти без корпоративной политики платформ социальных сетей и других предприятий, которые позволили распространиться опасной риторике в Интернете и в конечном итоге способствовать насилию в реальном мире. Как следователям Комитета, нам было поручено изучить роль, которую эти факторы сыграли в событиях 6 января. В этом эссе мы стремимся привлечь внимание к роли, которую активность в социальных сетях неоспоримо сыграла в восстании, и подчеркнуть сохраняющиеся угрозы американской демократии, а также поделиться извлеченными уроками, которые могут помочь предотвратить политическое насилие в будущем. 

Действительно, отсутствие главы или приложения к официальному отчету Комитета, посвященного исключительно этим вопросам, не означает, что наше расследование оправдало компании социальных сетей за их неспособность противостоять агрессивной риторике. Это также не означает, что Трамп был единственным инициатором того, что в конечном итоге стало попыткой государственного переворота против правительства США и мирной передачей власти. События 6 января стали результатом многих взаимосвязанных факторов, включая все более радикальную риторику ведущих консервативных голосов как онлайн, так и офлайн, а также тревожный рост числа людей, которые считают политическое насилие жизнеспособным решением.

Эти угрозы демократии в США, вероятно, переживут политическую значимость Трампа, и они не выходили за рамки компетенции Комитета. Согласно действующему законодательству, цели Отборочного комитета включали:

“Расследовать и сообщить о фактах, обстоятельствах и причинах, связанных с внутренним террористическим нападением на комплекс Капитолия Соединенных Штатов 6 января 2021 года … а также о влияющих факторах, которые спровоцировали такое нападение на американскую представительную демократию во время конституционного процесса”.

Следуя этому широкому мандату, в январе 2022 года Комитет вызвал в суд четыре крупнейшие компании социальных сетей в Соединенных Штатах: Alphabet (материнская компания Google и YouTube), Meta (материнская компания Facebook и Instagram), Reddit и Twitter. Как члены команды Purple Комитета, мы также исследовали другие платформы, включая (но не ограничиваясь ими) Gab, Parler, сообщества “Dot Win” (например, The.[.]win), 4chan, Discord, TikTok, 8kun, Telegram, MeWe и Bitchute. Наши результаты свидетельствуют о том, что взаимосвязь между социальными сетями и насильственным экстремизмом остается повсеместной и, по сути, является центральным компонентом Интернета. Признание и противодействие угрозе, исходящей от этого явления, является ключом к предотвращению еще одного 6 января. 

Роль компаний социальных сетей в обеспечении 6 января

В день нападения наблюдатели быстро установили причинно-следственную связь с распространением теорий заговора, связанных с выборами, на различных платформах. Компании социальных сетей отреагировали оборонительно. Например, через несколько дней после атаки тогдашний исполнительный директор Facebook Шерил Сандберг заявила, что акция “Останови кражу” 6 января и последующая атака были «в основном организованы на платформах, которые [не имели возможностей Facebook] остановить ненависть». По правде говоря, многие платформы, включая Facebook, использовались для организации восстание способами, которые варьировались так же сильно, как и сами платформы. Некоторые использовались для трансляции заговоров и призывов к насилию непосредственно массовой аудитории, в то время как другие использовались для непосредственного планирования преступной деятельности в эксклюзивных группах чата. Хотя скептики по поводу роли социальных сетей в нападении могут сказать, что причинно-следственная связь между этими инструментами и самим насилием незначительна, это аргумент соломенного человека. Независимо от того, является ли онлайн-активность прямой причиной экстремистского насилия, платформы социальных сетей несут ответственность за проведение надлежащей проверки на предмет злоупотребления их услугами. 

Крупнейшие платформы, включая те, которые были вызваны в суд Комитетом, в последние годы разработали все более сложную политику модерации контента, включая разжигание ненависти, подстрекательство к насилию и вводящие в заблуждение заявления, затрагивающие выборы, общественное здравоохранение и общественную безопасность. Между тем, большинство маргинальных и высокотехнологичных платформ, таких как Gab или 8kun, существуют в оппозиции к преобладающим нормам и стандартам в отношении модерации контента, часто соглашаясь с правыми деятелями, которые считают, что более крупные платформы чрезмерно подвергают цензуре консервативную речь. 

В начале расследования мы полагали, что сможем найти доказательства того, что крупные платформы, такие как Facebook, Twitter и YouTube, сопротивлялись принятию упреждающих мер по ограничению распространения насильственного и вводящего в заблуждение контента во время выборов из-за беспокойства о своей прибыли. Эти крупные платформы в конечном счете получают доход от привлечения пользователей к своим соответствующим сервисам, чтобы они могли показывать этим пользователям больше рекламы. Аналитики утверждают, что эта бизнес-модель поощряет разделяющий, негативный, вводящий в заблуждение, а иногда и вызывающий ненависть или насилие контент. Тогда имело бы смысл, что у платформ были причины наносить удары из-за беспокойства о своей прибыли.

Хотя, возможно, это верно в более общем плане, наше расследование не нашло прямых доказательств такой мотивации в контексте выборов 2020 года. Сторонники смелых действий внутри этих компаний – таких, как меры Facebook по “разбиванию стекла” или политика Twitter по борьбе с неявным подстрекательством к насилию – с большей вероятностью встретят сопротивление по политическим причинам, чем явно финансовым. Например, после того, как президент Трамп сказал Гордым мальчикам “отойти в сторону и быть в стороне” во время первых президентских дебатов в 2020 году, скрытые и явные призывы к насилию распространились по Твиттеру. Бывшие члены команды доверия и безопасности Twitter сообщили Отборочному комитету, что проект политики, касающийся такого закодированного языка, был заблокирован тогдашним вице-президентом по доверию и безопасности Дел Харви, потому что она считала, что некоторые из более неявных фраз, таких как “заблокирован и загружен”, могут относиться к самообороне. Эта фраза много обсуждалась во внутриполитических дебатах, но она была выбрана не на пустом месте – ее часто использовали после стрельбы Кайла Риттенхауса в Кеноше прошлым летом. Но тот факт, что это появилось лишь в небольшой части сотен твитов, используемых для информирования о политике, привел сотрудников к выводу, что решение Харви было направлено на то, чтобы избежать противоречивых репрессий в отношении насильственных высказываний среди правых пользователей. По иронии судьбы, элементы этой политики позже были использованы для удаления серии жестоких твитов во время атаки 6 января, когда команда Trust & Safety была вынуждена действовать без руководства со стороны своего менеджера, чьей директивой для них было, по словам одного свидетеля, “остановить восстание”.

В Facebook многие из мер “разбить стекло” этой компании были эффективно реализованы до выборов, но когда теории заговора, отрицающие результаты выборов, начали распространяться через группы, использующие коронную фразу “Остановите воровство”, компания отказалась предпринимать решительные действия. Просочившиеся документы показывают, что в период между выборами и 6 января почти все самые быстрорастущие группы на Facebook были связаны с Stop the Steal, и они изобиловали ненавистническими высказываниями и призывами к насилию. Рост этих групп не был результатом рекомендательного алгоритма Facebook; скорее всего, небольшое число организаторов злоупотребляли Facebook, чтобы пригласить огромное количество людей в группы. Многие из этих супер-приглашенных использовали резервные группы, чтобы восстановить те, которые Facebook удалил. 

Сотрудники Facebook увидели эту активность и призвали к более решительным действиям. Брайан Фишман, возглавлявший группу по политике в отношении опасных организаций Facebook, заявил отборочному комитету, что, по его мнению, платформе следовало более решительно отреагировать на движение “Останови кражу”, организаторы которого «абсолютно» организовывались на Facebook. Он предположил, что компания могла бы принять меры, используя политику против скоординированного социального вреда, предназначенную для нацеливания на сети, которые не соответствуют формальной организации, но, тем не менее, пропагандируют насилие, разжигание ненависти, издевательства, домогательства, дезинформацию о здоровье или другой вред. Компания этого не сделала и не проводила более широкую политику против делегитимизации выборов; Фишман сказал Комитету, что в отрицании выборов участвовала столь значительная часть медиа-экосистемы правых, что такая политика была бы неоправданной (см., в частности, стр. 93-94 стенограммы его интервью). Эти решения не обязательно были связаны с соображениями сиюминутного дохода; они были частью более широкой модели терпимости к плохому поведению, чтобы избежать гнева политических правых, независимо от того, насколько опасными могут стать их сообщения.

Один четкий вывод из нашего расследования заключается в том, что сторонники недавно опубликованных “Файлов Twitter”, которые утверждают, что приостановка работы платформы бывшего президента является свидетельством антиконсервативной предвзятости, полностью ошибаются. Платформы не придерживались более высоких стандартов Трампа, удалив его аккаунт после 6 января. Скорее, в течение многих лет они писали правила, чтобы избежать привлечения его и его сторонников к ответственности; потребовалась попытка государственного переворота, чтобы они изменили курс. Доказательства и свидетельские показания, предоставленные членами команды доверия и безопасности Twitter, ясно показывают, что те, кто утверждает, что Трамп придерживался несправедливых двойных стандартов, умышленно пренебрегают или упускают из виду значение 6 января в контексте его запрета на основных платформах. По словам одного сотрудника Twitter, который обратился в Комитет, если бы Трамп был “любым другим пользователем Twitter, он был бы отстранен от работы очень давно”.

Полученные знания

Наше расследование позволило нам сделать несколько замечаний о том, как Конгресс и другие заинтересованные стороны могут реагировать на эти продолжающиеся технологические, социальные и политические угрозы демократии в США. Во-первых, необходима большая прозрачность в сфере социальных сетей. Эксперты по социальным сетям, которые беседовали с нами во время расследования, сетовали на недостаточное понимание политиками того, как работают платформы и их влияние на американское общество сегодня. Если бы ученые, политики и практики имели доступ к большему количеству данных с платформ, они могли бы получить более точные эмпирические данные о взаимосвязи между социальными сетями и экстремизмом. Рассмотрим хвастовство YouTube об изменениях в его алгоритме рекомендаций, направленных на сокращение потребления второстепенного и “пограничного” контента: без более подробной информации внешние наблюдатели не смогут оценить правдивость этих утверждений. Возможно, YouTube даже не сохраняет данные, необходимые для изучения влияния пограничного контента на пользователей. Эти барьеры на пути исследования подотчетности представляют собой проблему, но есть законодательные решения, ожидающие принятия. 

Аналогичным образом, во время выборов 2020 года и после них руководители платформы принимали важные решения, имевшие огромные последствия для политического дискурса вне поля зрения общественности. В то время как имеющиеся доказательства противоречат упрощенным жалобам на антиконсервативную цензуру крупных технологий, непрозрачность платформ делает подозрения понятными. 

В то время как некоторые решения кажутся произвольными и ошибочными – например, очевидный отказ высшего руководства Twitter выступить против скрытого подстрекательства, несмотря на доказательства, представленные его сотрудниками, – другие предполагают сложные компромиссы, которые общественность редко ценит. Эти компромиссы могут выходить далеко за рамки простого удаления или разрешения различных категорий контента; например, некоторые из мер Facebook по “разбитому стеклу” включали изменение того, как системы машинного обучения обнаруживают и понижают рейтинг, в отличие от удаления контента, который может нарушать политику. Эти системы не идеальны, и они не всегда способны уверенно прийти к выводу, но они необходимы для масштабной модерации контента. В зависимости от того, насколько агрессивно платформы их используют, такие механизмы генерируют ложноположительные результаты – разрешительную речь, которая удаляется, – или ложноотрицательные результаты, в результате чего вредоносный контент остается в Сети. 

В настоящее время платформы балансируют эти альтернативы почти полностью за закрытыми дверями. Но эти решения слишком важны для общества, чтобы оставлять их на усмотрение корпораций, которым не хватает демократической легитимности. Конгресс должен вести активную дискуссию о роли модерации контента и искусственного интеллекта в общественной жизни, привлекая экспертов и защитников, а также технологические компании для повышения осведомленности о том, как работают эти процессы, и достижения большего консенсуса в отношении того, как следует управлять онлайн-пространствами. 

Помимо прозрачности, не существует быстрых или простых законодательных решений для избавления социальных сетей от сложного явления растущего экстремизма. Вместо этого мы должны провести множество продемократических и антиэкстремистских реформ как внутри страны, так и вне ее. В качестве отправной точки недавняя статья Рэйчел Кляйнфельд предлагает “Пять стратегий поддержки демократии в США”, которые правительство, гражданское общество и политики могут предпринять, чтобы снизить спрос на антидемократические действия, укрепить демократические нормы и институты и восстановить общественное доверие.

Наконец, по-видимому, в законодательстве наблюдается повышенный акцент на регулировании алгоритмов. В то время как алгоритмическая прозрачность могла бы способствовать лучшему и более точному пониманию того, как пользователи взаимодействуют друг с другом и с контентом на различных платформах, алгоритмы не всегда являются тем пугалом, которым их пытаются представить общественность и политики. Хотя ученый Бекка Льюис в своей статье на эту тему ссылалась на YouTube, мнение остается верным для платформ социальных сетей в целом: компании социальных сетей могут завтра удалить все алгоритмы рекомендаций, и платформы по-прежнему будут библиотеками крайне правого экстремизма и конспирологического контента, легко доступного для поиска теми, у кого есть мотивация смотреть.

Распространение крайне правых теорий заговора и дезинформации, которые были усилены годами неадекватных усилий платформ по модерации контента, существовало задолго до президентства Трампа и будет существовать еще долго после того, как он исчезнет из общественной жизни. Трамп не смог бы распространять Большую ложь и мобилизовать тысячи своих последователей, если бы платформы социальных сетей не позволяли ему это делать. Фактически, события, произошедшие с 6 января, сделали нас более уязвимыми для политического насилия, разжигаемого радикальной риторикой в Интернете. Для решения этих проблем требуется меньше ресурсов и персонала по вопросам доверия и безопасности, а также больше платформ для мониторинга распространения экстремистской деятельности. Если компании социальных сетей не будут привлечены к ответственности, другие демагоги, готовые попирать демократические нормы, чтобы сохранить свою власть, наверняка воспользуются платформами для распространения следующей большой лжи.

About the Author(s)

Dean Jackson

Dean Jackson is Project Manager of the Influence Operations Researchers’ Guild at the Carnegie Endowment for International Peace. He was formerly an Investigative Analyst with the Select Committee to Investigate the January 6th Attack on the U.S. Capitol, where he examined the conduct of social media companies during the run-up to the insurrection. From 2013 to 2021, he worked at the National Endowment for Democracy covering disinformation, media, and technology as they impact civil society and journalists around the world.

Meghan Conroy

Meghan Conroy (@meghaneconroy) is the U.S. Research Fellow with the Digital Forensic Research Lab (DFRLab) and a co-founder of the Accelerationism Research Consortium (ARC). She was formerly an Investigator with the Select Committee to Investigate the January 6th Attack on the U.S. Capitol, where she focused on the ways social media was used to mainstream extremist narratives and mobilize people to the Capitol.

Alex Newhouse

Alex Newhouse (@AlexBNewhouse) served as an Investigative Analyst for the Select Committee to Investigate the January 6th Attack on the U.S. Capitol. He is the Deputy Director at the Center on Terrorism, Extremism, and Counterterrorism and the Director of Technical Research at the Accelerationism Research Consortium (ARC), and he specializes in the study of online far-right extremism.