Как прибыли разрушают империю Цукерберга

Бывшая сотрудница Facebook Фрэнсис Хауген стала разоблачительницей злоупотреблений и недосмотров руководства социальной сети, которые приводят к разрушительным психологическим, социальным и даже политическим последствиям по всему миру. С помощью внутренних документов Facebook, часть которых она изначально предоставила газете The Washington Post, Хауген доказывает, что руководители и лично Марк Цукерберг знают о негативном влиянии их продуктов, но часто предпочитают бездействовать, чтобы не уменьшать финансовые показатели компании.

С этими обвинениями Хауген выступила перед американским конгрессом, а огромный архив, состоящий из тысяч внутренних документов, служебных записок, результатов исследований и отчетов Facebook, она передала 17 американским изданиям и консорциуму журналистов из Европы. Ведущие СМИ начали изучать и публиковать материалы, которые они назвали «досье Facebook». 

Сокровищница внутренних документов Facebook показывает, что гигант социальных сетей в частном порядке и скрупулезно отслеживал реальный вред, усугубляемый его платформами, игнорировал предупреждения своих сотрудников о рисках и подвергал уязвимые сообщества по всему миру воздействию опасного контента.

«Досье Facebook» дает беспрецедентное представление о том, как руководство технологического гиганта взвешивает компромиссы между общественной безопасностью и собственной прибылью – и часто выбирает второе.

Вот основные выводы из расследования:

Facebook выбирает максимальную вовлеченность вместо безопасности пользователей

Марк Цукерберг заявил, что компания не разрабатывает свои продукты специально для того, чтобы убедить людей тратить на них больше времени. Но десятки документов из «досье Facebook» свидетельствуют об обратном. Решения, которые могли оградить пользователей от радикализирующего и дезинформирующего контента, откладывались, если вместе с тем они означали меньшие охваты и меньшую прибыль для компании.

В одном из отчетов за 2019 год описывается эксперимент, для которого создали фиктивную страницу условной женщины из Северной Каролины, придерживающейся консервативных взглядов. Было обнаружено, что алгоритмы рекомендаций Facebook привели ее к группам, связанным с экстремистской идеологией QAnon, которую ФБР считает угрозой внутреннего терроризма, всего за пять дней. Тем не менее Facebook позволил QAnon распространять информацию через социальную сеть практически бесконтрольно еще 13 месяцев, пишет The Washington Post.

«Досье Facebook» также показало, что компания существенно снизила меры контроля, предпринятые накануне президентских выборов в США, сразу после того, как были объявлены результаты. В итоге множество клонов запрещенных групп, в которых повторялись утверждения об «украденных выборах», беспрепятственно распространились по сети. Это привело к насильственным протестам 6 января, когда сторонники бывшего президента Дональда Трампа ворвались в Капитолий, чтобы не допустить признания победы Джо Байдена. 

Facebook знал, как бороться с дезинформацией о вакцинах, – но решил этого не делать 

В марте, когда заявления об опасности и неэффективности вакцин против коронавируса распространились в социальных сетях и начали подрывать попытки остановить пандемию, некоторые сотрудники Facebook решили, что нашли способ помочь.

Изменив порядок ранжирования сообщений о вакцинах в ленте новостей пользователей, исследователи компании поняли, что могут сократить количество недостоверной информации о вакцинах и предложить пользователям сообщения из надежных источников, таких как Всемирная организация здравоохранения.

«Учитывая эти результаты, я предполагаю, что нужно запускаться как можно скорее», – написал один из сотрудников Facebook во внутренней записке об исследовании. 

Но Facebook не стал торопиться. 

Другой исследователь Facebook предложил отключить некоторые комментарии к сообщениям о вакцинах, пока платформа не сможет лучше справляться с потоком сообщений против вакцин, – но это предложение было проигнорировано.

Критики говорят, что причина, по которой Facebook медлил с реализацией этих идей, проста: технологический гигант опасался, что это может повлиять на прибыль компании.

«Почему бы не удалить комментарии? Потому что вовлеченность – единственное, что имеет значение, – цитирует The Associated Press Имрана Ахмеда, генерального директора Центра по противодействию цифровой ненависти, группы по наблюдению за интернетом. – Это привлекает внимание, а внимание равно просмотрам, а просмотры равны доходам от рекламы».

Facebook в свою очередь сообщает, что в этом году он добился «значительного прогресса» в снижении рейтинга дезинформации о вакцинах в лентах пользователей.

Facebook не удается эффективно контролировать контент в большинстве стран мира 

При всех проблемах Facebook в Северной Америке и англоязычных странах ситуация в развивающихся странах еще хуже. Документы показывают, что Facebook прекрасно понимает: слабая модерация в неанглоязычных странах делает платформу уязвимой для злоупотреблений со стороны ненавистнических групп и авторитарных режимов.

Изучение «досье Facebook» показывает, что в некоторых из самых нестабильных регионов мира террористический контент и язык ненависти распространяются потому, что компании не хватает модераторов, говорящих на местных языках и понимающих культурный контекст. А ее платформы не смогли разработать решения на основе искусственного интеллекта, способные отлавливать вредоносный контент на разных языках.

В Сирии и на палестинских территориях Facebook подавляет обычную речь, накладывая запреты на общеупотребительные слова. Скажем, под запрет попал хештег #Аль-Акса, потому что алгоритм посчитал его связанным с «Бригадами мучеников Аль-Аксы». Из-за этого сообщения, связанные с политической ситуацией вокруг мечети, не получали распространения.

\”«Коренная проблема заключается в том, что платформа никогда не создавалась с расчетом на то, что однажды она станет посредником в политических высказываниях всех людей в мире\”, – говорит Элиза Кэмпбелл, директор киберпрограммы Института Ближнего Востока. – Но при той политической значимости и ресурсах, которыми располагает Facebook, модерация – это проект, на который не хватает ресурсов».

В Мьянме, где дезинформация, распространяемая Facebook, неоднократно приводила к этническому и религиозному насилию, компания признала в своих внутренних отчетах, что не смогла остановить распространение языка вражды, направленного на мусульманское меньшинство рохинья.

Но представители Facebook заявляют, что компания добилась «прогресса»: «глобальные команды с носителями языка просматривают контент на более чем 70 языках вместе с экспертами по гуманитарным вопросам и правам человека». По их словам, Facebook также «увеличил число членов команды с опытом работы в Мьянме и Эфиопии, включая бывших сотрудников гуманитарных организаций, специалистов по преодолению кризисов и политиков».

Публичные заявления Цукерберга часто противоречат внутренним исследованиям

В своих жалобах в Комиссию по ценным бумагам и биржам США Хауген ссылается на публичные заявления Марка Цукерберга по меньшей мере 20 раз, утверждая, что уникальная степень контроля генерального директора над Facebook подразумевает, что именно он несет конечную ответственность за целый ряд проблем, вызванных неустанным стремлением компании к росту.

Документы также показывают, что публичные заявления Цукерберга часто расходятся с внутренними выводами компании.

Например, в прошлом году Цукерберг заявил в конгрессе, что компания удаляет 94 процента ненавистнических высказываний, которые находит, прежде чем о них сообщит пользователь. Но во внутренних документах исследователи подсчитали, что компания удаляет менее 5 процентов всех разжигающих ненависть высказываний в Facebook.

Пресс-секретарь Facebook Дэни Левер отрицает, что Цукерберг «принимает решения, которые наносят вред», и отвергает выводы, говоря, что они «основаны на отдельных документах, которые неверно истолкованы и лишены какого-либо контекста».

Александра Аппельберг, Источник: По материалам зарубежных СМИ, Orbita.co.il

На фото: генеральный директор Facebook Марк Цукерберг