web analytics

Алгоритмы, ложь и социальные сети

Контент

Достижение более прозрачных и менее манипулятивных онлайн-СМИ вполне может стать определяющей политической битвой 21-го века.


Было время, когда Интернет рассматривался как несомненная сила общественного блага. Это продвинуло прогрессивные социальные движения от Black Lives Matter до арабской весны; она освободила информацию и подняла флаг демократии во всем мире. Но сегодня демократия отступает , и роль Интернета как движущей силы очевидна. Социальные сети, от фейковых новостных ботов до дезинформации и теорий заговора, завладели мышлением, пробуждая ощущение темной силы, которой необходимо противопоставить авторитарный контроль сверху вниз.

Этот парадокс — что Интернет является и спасителем, и палачом демократии — можно понять через призму классической экономики и когнитивной науки .. На традиционных рынках фирмы производят товары, такие как автомобили или тостеры, которые удовлетворяют предпочтения потребителей. Рынки в социальных сетях и в Интернете радикально отличаются, потому что платформы существуют для продажи информации о своих пользователях рекламодателям, таким образом удовлетворяя потребности рекламодателей, а не потребителей. В социальных сетях и некоторых частях Интернета пользователи «платят» за бесплатные услуги, передавая свои данные неизвестным третьим лицам, которые затем показывают их рекламе, ориентированной на их предпочтения и личные качества. В том, что социальный психолог из Гарварда Шошана Зубофф называет «капитализмом слежки», платформы побуждаются согласовывать свои интересы с рекламодателями, часто в ущерб интересам пользователей или даже их благополучию.

Эта экономическая модель вынуждает онлайн-платформы и платформы социальных сетей (хотя и невольно) использовать когнитивные ограничения и уязвимости своих пользователей. Например, человеческое внимание приспособилось фокусироваться на сигналах, которые сигнализируют об эмоциях или удивлении. Обращать внимание на эмоционально заряженную или неожиданную информацию имеет смысл в большинстве социальных и неопределенных сред и было важно в сплоченных группах, в которых жили ранние люди. Таким образом, информация об окружающем мире и социальных партнерах могла быстро обновляться и действовать.

Но когда интересы платформы не совпадают с интересами пользователя, эти стратегии становятся неадаптивными. Платформы знают, как извлечь из этого выгоду: чтобы максимизировать доход от рекламы, они предоставляют пользователям контент, который привлекает их внимание и удерживает их. Например, рекомендации YouTube усиливают все более сенсационный контент с целью удерживать внимание людей на экране. Исследование, проведенное исследователями Mozilla , подтверждает, что YouTube не только размещает, но и активно рекомендует видео, которые нарушают его собственные правила в отношении политической и медицинской дезинформации, разжигания ненависти и неприемлемого контента.

Точно так же наше внимание в Интернете более эффективно захватывают новости, которые либо преимущественно негативны , либо внушают благоговейный трепет . Дезинформация особенно часто вызывает возмущение , а заголовки поддельных новостей должны быть значительно более негативными, чем заголовки реальных новостей.. В погоне за нашим вниманием цифровые платформы стали вымощены дезинформацией, особенно той, которая подпитывает возмущение и гнев. После недавних разоблачений осведомителя мы теперь знаем, что алгоритм курирования ленты новостей Facebook придавал контенту, вызывающему гнев, в пять раз больший вес, чем контенту, вызывающему радость. (Предположительно из-за разоблачений алгоритм был изменен.) Мы также знаем, что политические партии в Европе стали размещать больше негативной рекламы, потому что алгоритм Facebook отдавал им предпочтение.

Помимо выбора информации на основе ее персонализированной актуальности, алгоритмы также могут отфильтровывать информацию, считающуюся вредной или незаконной, например, автоматически удаляя разжигание ненависти и содержание насилия. Но до недавнего времени эти алгоритмы зашли так далеко. Как отмечает Эвелин Дуек, старший научный сотрудник Института Первой поправки Найта в Колумбийском университете , до пандемии большинство платформ (включая Facebook, Google и Twitter) ошибались в защите свободы слова и отвергали роль, поскольку Марк Цукерберг написал в личном посте в Facebook, что он « арбитр истины».Но во время пандемии эти же платформы заняли более интервенционистский подход к ложной информации и пообещали удалить или ограничить дезинформацию и теории заговора о Covid-19. Здесь платформы также использовали автоматизированные инструменты для удаления контента без проверки человеком.

Несмотря на то, что большинство решений в отношении контента принимаются алгоритмами, люди по-прежнему разрабатывают правила, на которые опираются инструменты, и люди должны справляться с их неоднозначностью: должны ли алгоритмы удалять ложную информацию, например, об изменении климата или только о Covid-19? Такая модерация контента неизбежно означает, что люди, принимающие решения, взвешивают ценности. Это требует уравновешивания защиты свободы слова и прав личности с защитой других интересов общества, чего социальные сети не имеют ни мандата, ни компетенции для достижения.

Ничто из этого не является прозрачным для потребителей, потому что в Интернете и социальных сетях отсутствуют основные сигналы, характерные для обычных коммерческих транзакций. Когда люди покупают машину, они знают, что покупают машину. Если этот автомобиль не оправдает их ожиданий, потребители получат четкий сигнал о нанесенном ущербе, потому что у них больше нет денег в кармане. Напротив, когда люди используют социальные сети, они не всегда осознают, что являются пассивными субъектами коммерческих сделок между платформой и рекламодателями с использованием их личных данных. И если опыт пользователей имеет неблагоприятные последствия , такие как повышенный стресс или ухудшение психического здоровья .— трудно связать эти последствия с использованием социальных сетей. Связь становится еще труднее установить, когда социальные сети способствуют политическому экстремизму или поляризации.

Пользователи также часто не знают, как курируется их новостная лента в социальных сетях. Оценки доли пользователей, не знающих, что алгоритмы формируют их новостную ленту, колеблются от 27% до 62% . Даже люди, знакомые с алгоритмическим курированием, как правило, не имеют точного представления о том, что это значит. В статье Pew Research, опубликованной в 2019 году , говорится, что 74% американцев не знали, что Facebook хранит данные об их интересах и чертах характера. В то же время люди склонны возражать против сбора конфиденциальной информации и данных в целях персонализации и не одобряют персонализированные политические кампании.

Они часто не знают, что информация, которую они потребляют и производят, контролируется алгоритмами. И вряд ли кто-то понимает, что алгоритмы будут предоставлять им информацию, специально созданную для того, чтобы вызвать возмущение или гнев, атрибуты, которые идут рука об руку с политической дезинформацией.

Люди не могут нести ответственность за свою неосведомленность. С ними не советовались при разработке онлайн-архитектуры, и они не рассматривались в качестве партнеров в разработке правил онлайн-управления.

Что можно сделать, чтобы изменить этот баланс сил и сделать онлайн-мир лучше?

Руководители Google назвали Интернет и его приложения «крупнейшим в мире неуправляемым пространством», не связанным земными законами. Эта точка зрения более несостоятельна. Большинство демократических правительств в настоящее время признают необходимость защиты своих граждан и демократических институтов в Интернете.

Защита граждан от манипуляций и дезинформации, а также защита самой демократии требуют перестройки нынешней онлайновой «экономики внимания», которая не соответствует интересам платформ и потребителей . Редизайн должен восстановить сигналы, которые доступны потребителям и общественности на обычных рынках: пользователи должны знать, что делают платформы и что они знают, а общество должно иметь инструменты, чтобы судить о том, действуют ли платформы честно и в общественных интересах. Там, где это необходимо, регулирование должно обеспечивать справедливость.

Требуются четыре основных шага:

  • Должна быть большая прозрачность и более индивидуальный контроль над личными данными. Прозрачность и контроль — это не просто высокие правовые принципы; они также являются сильно поддерживаемыми общественными ценностями. Результаты европейского опроса показывают, что почти половина населения хочет играть более активную роль в контроле использования личной информации в Интернете. Из этого следует, что людям необходимо предоставить больше информации о том, почему они видят определенные объявления или другие элементы контента. Полная прозрачность настройки и таргетинга особенно важна, поскольку платформы могут использовать личные данные для определения атрибутов.— например, сексуальная ориентация — которую человек может никогда по своей воле не раскрыть. До недавнего времени Facebook разрешал рекламодателям ориентироваться на потребителей на основе деликатных характеристик, таких как здоровье, сексуальная ориентация, религиозные и политические убеждения, что могло поставить под угрозу жизнь пользователей в странах, где гомосексуализм является незаконным.
  • Платформы должны сообщать о качестве информации в ленте новостей, чтобы пользователи могли оценить риск доступа к ней. Доступна палитра таких реплик . «Эндогенные» сигналы, основанные на самом содержании, могут предупредить нас об эмоционально заряженных словах, призванных спровоцировать возмущение. «Экзогенные» сигналы или комментарии из объективных источников могут пролить свет на контекстуальную информацию: исходит ли материал из надежного источника? Кто поделился этим контентом ранее? По словам Цукерберга, собственное исследование Facebook показало, что доступ к дезинформации, связанной с COVID, может быть сокращен на 95 процентов, если контент будет выделен серым цветом (и для доступа потребуется щелчок) и будет добавлен предупреждающий ярлык.
  • Общественность должна быть предупреждена, когда политическая речь, распространяемая в социальных сетях, является частью рекламной кампании. Демократия основана на свободном рынке идей, на котором политические предложения могут быть тщательно изучены и опровергнуты оппонентами; платная реклама, маскирующаяся под независимое мнение, искажает этот рынок. «Рекламная библиотека» Facebook — это первый шаг к исправлению ситуации, потому что, в принципе, она позволяет публике отслеживать политическую рекламу. На практике библиотека терпит неудачу по нескольким важным причинам. это неполный, пропустив много явно политической рекламы. Он также не предоставляет достаточно информации о том, как реклама нацелена на получателей, что не позволяет политическим оппонентам выступить с опровержением той же аудитории. Наконец, рекламная библиотека хорошо известна исследователям и практикам, но не широкой публике.
  • Общественность должна точно знать, как алгоритмы отбирают и ранжируют информацию, а затем должна быть предоставлена ​​возможность формировать свою собственную онлайн-среду. В настоящее время единственная общедоступная информация об алгоритмах социальных сетей исходит от разоблачителей и кропотливых академических исследований. Независимые агентства должны иметь возможность проверять данные платформы и определять меры по устранению источника дезинформации. Внешний аудит не только выявит потенциальные предубеждения в алгоритмах, но и поможет платформам поддерживать общественное доверие, не стремясь самостоятельно контролировать контент.

Несколько законодательных предложений в Европе предлагают путь вперед, но еще неизвестно, будет ли принят какой-либо из этих законов. Существует значительный общественный и политический скептицизм в отношении регулирования в целом и в отношении правительства, вмешивающегося в регулирование контента социальных сетей, в частности. Этот скептицизм, по крайней мере, частично оправдан, поскольку патерналистское вмешательство может, если оно сделано ненадлежащим образом, привести к цензуре. Показательным примером является цензура китайского правительства в отношении интернет-контента. Во время пандемии некоторые авторитарные государства, такие как Египет, ввели «законы о фальшивых новостях» для оправдания репрессивной политики, подавления оппозиции и дальнейшего ущемления свободы прессы. В марте 2022 года российский парламент утвердил тюремное заключение на срок до 15 лет за распространение «фейковой» (как противоречащей официальной позиции правительства) информации о войне против Украины, в результате чего многие иностранные и местные журналисты и новостные организации ограничили свое освещение событий. вторжение или полный уход из страны.

В либеральных демократиях правила должны быть не только пропорциональны угрозе вредоносной дезинформации, но и уважать основные права человека. Опасения по поводу авторитарного государственного контроля необходимо сопоставлять с опасностями статус-кво. Правительство может показаться патерналистским, требуя, чтобы алгоритмы платформы не превращали людей в пузыри экстремизма. Но со стороны Facebook также патерналистски придавать контенту, вызывающему гнев, в пять раз больший вес, чем контенту, который делает людей счастливыми, и гораздо более патерналистски делать это тайно.

Лучшее решение заключается в передаче контроля над социальными сетями от неподотчетных корпораций демократическим агентствам, которые действуют открыто и под контролем общественности. Нет недостатка в предложениях о том, как это могло бы работать. Например, могут быть расследованы жалобы населения. Настройки могут сохранить конфиденциальность пользователя, а не отказаться от нее по умолчанию.

Инструменты поведенческих и когнитивных наук не только направляют регулирование, но и помогают сбалансировать свободу и безопасность для общественного блага. Один из подходов заключается в исследовании дизайна цифровых архитектур, которые более эффективно способствуют точности и вежливости онлайн-разговоров. Другая заключается в разработке набора инструментов для повышения цифровой грамотности, направленного на повышение осведомленности пользователей и повышение их компетентности в решении проблем онлайн-среды.

Достижение более прозрачных и менее манипулятивных СМИ вполне может стать определяющей политической битвой 21-го века.

Стефан Левандовски — когнитивист из Бристольского университета в Великобритании. Анастасия Козырева — философ и когнитивист, работающая над когнитивными и этическими последствиями цифровых технологий и искусственного интеллекта для общества. в Институте человеческого развития Макса Планка в Берлине. Эта статья была первоначально опубликована журналом OpenMind и переиздается под лицензией Creative Commons.

Источник:
https://www.niemanlab.org/2022/04/algorithms-lies-and-social-media/

Оцените статью
( Пока оценок нет )

Добавить комментарий