Алгоритмы модерации контента могут быть разработаны так, чтобы уменьшить распространение дезинформации, одновременно защищая те самые права, которым они угрожают, говорит Ричард Маккензи-Грей Скотт, научный сотрудник Оксфордского университета.
Во многих демократических странах существует устойчивое мнение, что платформы социальных сетей могли бы сделать больше для смягчения дезинформации, даже если ее потребление не всегда может привести к чему-то плохому. Однако многие подходы к регулированию рискуют поставить под угрозу свободу слова. Будь то расширение оснований для ответственности посредников, понижение или удаление контента или деплатформирование пользователей, свобода слова может быть поставлена под угрозу усилиями, направленными на уменьшение существования и распространения дезинформации. Но существуют меры, которые могут как уменьшить дезинформацию , так и защитить свободу слова.
Что упускается из виду в дискуссиях о противодействии дезинформации, так это роль другого права человека: свободы мысли. Эта свобода помогает нам формировать идеи во время взаимодействия с миром. Оно формирует наши решения и направляет наше поведение. И наша свобода мысли влияет на нашу свободу слова. Эту связь можно рассматривать как « непрерывный, циклический, социальный процесс ». Элементы свободы мысли включают в себя получение и усвоение информации, взаимодействие с собеседниками и размышления о связанных обменах, поэтому цензура может повлиять на свободу мысли реальных и потенциальных получателей информации и идей.
Точно так же, чтобы речь была свободной, предшествующее ей мышление требует когнитивной свободы. Несмотря на неопределенность относительно взаимосвязи между убеждениями и поведением, предоставление возможностей, которые побуждают людей мыслить свободно, может уменьшить объем реактивной речи во время взаимодействия в социальных сетях. Дизайн платформы стимулирует реактивное поведение, отчасти позволяя пользователям быстро выражать свое мнение. Важно прервать эту тенденцию, в том числе в Интернете, где информация постоянно бомбардирует наш мозг, а курирование контента может создать изоляцию от незнакомых идей. Недавнее исследование Facebook показало, что «пользователи гораздо чаще видят контент из источников-единомышленников, чем контент из перекрестных источников». Еще одно недавнее исследованиепоказывает, что эта платформа также идеологически сегрегирована. Такие факторы могут привести к тому, что люди не признают альтернативных точек зрения и зацикливаются на своих идеях и мнениях, иногда смешивая их с принципами и ценностями.
Обеспечение свободы мысли и, как следствие, свободы слова зависит от доступа к разнообразным источникам информации. Знакомя кого-либо с различными формами и содержанием выражения по определенной теме, он получает возможность подумать о ней более полно, чем другой человек, которому представлено меньше точек зрения, особенно если ему предоставлено время для размышлений. Такой подход к распространению и потреблению информации также дает возможность помочь людям быть более восприимчивыми в своих взаимодействиях, когда есть готовность обращать внимание на точки зрения, с которыми они не согласны. В свою очередь, качество общения может улучшиться, возможно, даже стать дружелюбным. Использование различных источников информации обеспечивает различные фильтрованные реальности нашей общей реальности.
Доступ к различным точкам зрения на проблему способствует способности учитывать любые нюансы и переменные при формировании идеи или мнения. Без учета альтернативных взглядов и подсказок к этому люди могут прийти к однозначным выводам слишком быстро, иногда выражая их с такой уверенностью, что новая информация игнорируется, тонет в потоке предвзятости, чрезмерной самоуверенности или их деструктивного сочетания. Противодействие такому поведению является частью развенчания дезинформации. И так случилось, что появился инструмент, который платформы социальных сетей могли бы использовать по-разному, чтобы уменьшить распространение дезинформации, одновременно реализуя свободу мысли.
Инструмент поставляется в форме цифрового подталкивания. Хотя существует ряд общих предостережений, о которых следует помнить при рассмотрении политики подталкивания, конкретный тип подталкивания и то, как он разработан, имеет значение. Недавние исследования привлекли дополнительное внимание к форме цифрового подталкивания, которая потенциально может стимулировать свободу мысли у пользователей социальных сетей, а не пытаться думать за них. Его развертывание заключается в использовании алгоритма, предназначенного для отображения альтернативных источников информации пользователям во всплывающем окне, если они нажмут, чтобы поделиться контентом, содержащим дезинформацию.
Этот механизм аналогичен информационным панелям, которые предоставляют дополнительный контекст по теме, например, используемым в Facebook , Twitter (теперь X) и YouTube . Ключевые различия включают в себя большее количество трений в пользовательском интерфейсе в сочетании с представлением стороннего контента, существующего вне платформы. Если пользователь хочет поделиться контентом, содержащим дезинформацию, прерывание этого взаимодействия дает момент для паузы и возможность потреблять связанный, но другой контент. Этот шанс на размышление и поощрение сомнений, каким бы минимальным он ни был, может удержать пользователя от дальнейшего распространения дезинформации.
Но в отличие от предупреждений о проверке фактов и связанных с ними информационных панелей, цифровые подталкивания, призванные стимулировать потребление более разнообразного массива информации, не маркируют какой-либо контент с точки зрения его отношения к истине (например, «ложный», «вводящий в заблуждение», «спорный»). ‘). Таким образом, пользователи могут стать менее зависимыми от поддержки принятия решений со стороны платформ, решающих за них, какой информации следует доверять, а какой нет. Вызывает беспокойство тот факт, что платформы социальных сетей стали арбитрами истины, особенно если пользователи полагаются на то, что они продолжат выполнять эту роль. Для процветания свободы мысли людям необходимо, чтобы они сами приходили к обоснованным выводам после изучения доступной информации.
Конечно, ориентироваться в информационной онлайн-среде сложно. Не только из-за объема информации, но и из-за дизайна платформ, которые эффективно привлекают и удерживают внимание. Информация, которую люди получают онлайн, может быть адаптирована с точностью на основе их профиля данных. Эти факторы становятся острыми на платформах, которые функционируют для увеличения количественного взаимодействия с пользователями с целью увеличения прибыли за счет извлечения и использования связанных данных. Описанное выше цифровое подталкивание работает по этой логике. Чем больше времени пользователь проводит на определенной платформе, тем больше эта платформа знает о нем, в том числе о том, каким источникам он скорее всего доверяет. И доверие является ключевым моментом, поскольку оно связано с личными идентичностями и интересами пользователей, которые формируются и формируются под влияниемнарративы и сети их систем убеждений. Пользователь может доверять одному источнику информации, но не другому, даже если оба передают схожие сообщения. Таким образом, связанные пользовательские данные могут сообщить, какие источники могут вызвать наибольший уровень доверия у каждого пользователя, что может учитывать алгоритм модерации контента при представлении альтернативных источников пользователям, которые взаимодействуют с дезинформацией.
Этот подход предлагает исправление онлайн-платформ, которые ограничивают доступ пользователей к различным точкам зрения, с которыми они знакомы. Особенности алгоритмического курирования в социальных сетях в сочетании с тем, как люди обрабатывают информацию и реагируют на нее , бросают вызов рынку метафор идей, где предполагается, что идеи конкурируют, а хорошие предположительно принимаются, а плохие отвергаются. Но покупка этих предположений отчасти является причиной того, что дезинформация может достичь огромного охвата. Идеи могут конкурировать только в том случае, если они известны. Различные точки зрения во время взаимодействия с пользователями не могут быть учтены, если пользователи изначально о них не знают. Управление дезинформацией требует многосторонних мер реагированияэто включает предоставление альтернативных объяснений для объяснения содержания, которое является правдоподобным, но в конечном итоге ложным.
Точная информация должна помочь конкурировать на онлайн-рынках внимания. Хотя использование социальных сетей, в зависимости от платформы, может нарушить эхо-камеры.точная информация, независимо от ее объема, не способна снизить концентрацию дезинформации в ленте пользователя социальной сети, если только точная информация не проникнет в эту ленту. Одним из методов доставки, который может обеспечить такую передачу, является цифровое подталкивание из альтернативного источника. Алгоритмы, предлагающие разнообразные варианты, побуждающие пользователей использовать более одного исходного источника, предпринимают попытку прервать наш стандартный, бессознательный мыслительный процесс, хотя бы на короткое время. Этого окна разногласий может быть достаточно, чтобы помешать пользователям делиться контентом, содержащим дезинформацию. Таким образом, внедрение соответствующего алгоритма направлено на то, чтобы побудить пользователей к сознательному мышлению.
Соответствующие алгоритмы будут разработаны таким образом, чтобы новая информация автоматически представлялась пользователю, когда он взаимодействует с источниками, содержащими дезинформацию, в соответствии с их эффективностью. Использование альтернативной информации в качестве компонента противодействия дезинформации должно учитывать то, как она заставляет людей чувствовать себя в дополнение к тому, что они думают. Как писал Джон Мичем : «Однако способность применять свои мысли для формирования своих чувств — это другая, более сложная вещь». Это сочетание мыслей и чувств, которые управляют человеческой волей. Стратегии по смягчению последствий дезинформации должны учитывать это сочетание, если они имеют надежду на свою эффективность.
Еще один момент, когда следует использовать эту меру. Одно из предложений заключается в том, чтобы платформа развертывала соответствующий алгоритм, когда на этой платформе наблюдается всплеск дезинформации. Хотя алгоритм может работать непрерывно, его использование может быть ограничено периодами, когда того требуют обстоятельства из-за того, что поставлено на карту во время определенного притока дезинформации. Таким образом, платформы могут рассмотреть возможность использования этого алгоритма в периоды, предшествующие выборам, а также во время конфликтов, катастроф и пандемий, а также после атак, которые могут быть ошибочно отнесены к определенной группе. Потенциальная трудность заключается в том, что если создается впечатление, будто платформы подталкивают пользователей к заранее выбранной информации в то время, когда это политически значимо, то такой подход может способствовать недоверию.
Тем не менее, ограничение развертывания алгоритма периодами, когда на конкретной платформе наблюдается приток дезинформации, снижает потенциальный риск, связанный с тем, что пользователи с течением времени будут с большей готовностью принимать заранее определенные точки зрения. Длительное воздействие цифрового подталкивания из альтернативных источников может в конечном итоге сузить доступ пользователей к источникам информации, если не проводить его осторожно. Например, если алгоритм был разработан для представления альтернативных источников, которые попадают в рамки только одного партийного убеждения, то в конечном итоге он может склонить пользователей в пользу позиций, основанных на этой политической доктрине. Это понимание главным образом зависит от выбора источников, которые будут представлены в качестве альтернатив: кто их выбирает, как они выбираются и кто решает, кто будет принимать эти решения (и каким образом).
Связанный с этим риск заключается в том, что пользователи, которые положительно реагируют на альтернативные источники, могут в конечном итоге замкнуть цикл обратной связи, информирующий алгоритм, тем самым приближая пользователей к ранее согласованным позициям по конкретным вопросам. Возможность такого регресса с точки зрения доступа к разнообразному контенту и, следовательно, препятствий для свободомыслия противоречила бы намерениям, лежащим в основе цифрового подталкивания альтернативными источниками. Тем не менее, намерения не обязательно приводят к результатам. Защита от чрезмерной зависимости от цифрового подталкивания и рисков, которые оно несет, может означать, что лучшим вариантом будет поэтапный отказ от любой версии этой меры наряду с сокращением дезинформации на конкретной платформе, где повторное введение будет зависеть от дальнейших всплесков.
Дальнейшим балансирующим действием для платформ является разработка алгоритмов и пользовательских интерфейсов таким образом, чтобы создавалось достаточное количество трений для уменьшения распространения дезинформации, но не достигая порога, когда такая повторяемость становится настолько повторяющейся, что пользователи разочаровываются в их присутствии. Эта возможность может снизить вовлеченность пользователей на соответствующей платформе. Люди также могут покинуть его, навсегда или временно, и потенциально ради конкурента. В частности, если на этой платформе менее строгая модерация контента, такой отказ может практически не помочь остановить поток дезинформации и даже может привести к его увеличению.
Хотя использование цифрового дизайна, реализованного с помощью алгоритмов, имеет свои преимущества, цифровое подталкивание в новостных лентах социальных сетей как мера борьбы с дезинформацией требует дальнейшей общественной оценки. Платформы социальных сетей сегодня формируют коммуникацию и, таким образом, формируют соответствующие права человека на слово и мысль. Эта власть требует руководства общественными интересами. Открытые дебаты имеют решающее значение. Как бы чаша весов ни склонилась в конечном итоге, соответствующие споры было бы полезно проводить на публичных форумах, чтобы обеспечить адекватный контроль. Развитие совещательной демократии в этом вопросе означает, что люди вносят свой вклад и быть услышанными. Прежде чем цифровые подталкивания будут реализованы дальше, общественность заслуживает возможности поделиться своими мыслями и добиться того, чтобы представители, ответственные за свои решения, отреагировали на них.
Законопроект о подталкивании социальных сетейДо Конгресса есть шанс, что регулирование онлайн-пространств будет развиваться в соответствии с общественными предпочтениями. Одним из компонентов этого закона является то, что в случае его принятия он потребует от онлайн-платформ внедрения и измерения воздействия «интервенций, не зависящих от контента». Цифровые подсказки из альтернативных источников могут быть независимыми от контента, если они разработаны тщательно. Эта мера предоставляет пользователям социальных сетей возможность потреблять различные источники информации, в том числе те, которые обычно никогда не появляются для них в Интернете из-за алгоритмического курирования. Публичный обмен данными об эффективности цифровых подталкиваний также поможет информировать соответствующую практику. Учитывая неоднородность исследований по подталкиванию и их результатам, предоставление таких данных в конечном итоге подтвердит или опровергнет, являются ли и какие версии цифровых подталкиваний, если таковые имеются,
Власти власти могут найти лучший баланс между правами человека и интересами общества, борясь с дезинформацией и ее распространением в онлайн-пространстве. Цифровые технологии могут помочь в этом, если их использовать с усердием. Несмотря на все это, мы не должны теряться в привлекательности технологических мер, обещающих быстрое решение сложных социальных проблем. Иногда такие меры носят просто перформативный характер и принимаются для того, чтобы создать видимость того, что проблема решается, вместо того, чтобы на самом деле решить ее должным образом. Дезинформация в социальных сетях может усугубляться техническими проблемами, такими как алгоритмы платформы, оптимизирующие количественное увеличение вовлеченности пользователей. Но эта проблема в конечном счете социально-психологическая. Таким образом, вариации цифрового подталкивания из альтернативных источников могут стать частью уменьшения распространения дезинформации с точки зрения ее охвата и воздействия. Тем не менее, хотя эта мера также способна продвигать свободу мысли и защищать свободу слова, любая ее версия в лучшем случае является дополнением к инициативам, направленным на устранение основных причин дезинформации.
– – –
Эта статья основана на исследовании, получившем финансирование Британской академии (грант № BAR00550-BA00.01). Автор благодарит Бетани Шайнер, Даниэле Нуньес, Халефома Абраха, Кейт О’Риган и Сикс Зильберман за их полезные отзывы по первоначальному варианту.
Доктор Ричард Маккензи-Грей Скотт — научный сотрудник Института прав человека Бонаверо и Колледжа Святого Антония Оксфордского университета, а также приглашенный профессор Центра технологий и общества Фонда Гетулио Варгаса. Он является автором книги « Ответственность государства за негосударственных субъектов: прошлое, настоящее и перспективы на будущее»
Источник:
https://techpolicy.press/the-algorithmic-management-of-misinformation-that-protects-liberty/