Советское поле экспериментов: зачем убивали генетику в СССР

Советское поле экспериментов: зачем убивали генетику в СССР

Не пора ли вам заткнуться? Чем вредна свобода слова

Борьба с буллингом, троллингом и нетерпимостью в США приближается к пиковой точке: всё больше либералов, исповедующие идеалы свободы, готовы отказаться от одной из фундаментальный святынь американской демократии — свободы слова. Вот характерное рассуждение американского журналиста, обосновывающего отказ от первой поправки к Конституции США в пользу контроля языка ненависти.

Социальные сети — новые Машины Судного дня. Они отвлекают, разделяют и сеют безумие; мы стали не способны слышать друг друга, связано говорить и даже думать. В результате наши социальные, гражданские и политические связи рушатся.

Мы то и дело обращаемся к экранам смартфонов, чтобы получить подтверждение тому, что мы и так думаем, или повторить то, что и так уже высказали наши единомышленники. Мы соглашаемся на постоянную слежку и манипуляции алгоритмов соцсетей. Веря в абсурдные вещи, мы совершаем несправедливые и жестокие поступки.

Тим Кук недавно заметил на одной из конференций, что технологии и алгоритмы не смогли способствовать развитию наших светлых сторон; вместо этого они потворствуют темной.

В социальных сетях я вижу ложь, себялюбие и легковерие. Но это сейчас. Долгое время я был максималистом, сторонником открытого пространства идей и свободы слова. Дай человеку свободу — и хорошие идеи приживутся, а дурные отпадут сами, — я верил в это. Я был вдохновлен философским сочинением Джона Стюарта Милля «О свободе» и принципом непричинения вреда:

«Единственное оправдание вмешательства в свободу действий любого человека — самозащита, предотвращение вреда, который может быть нанесен другим».

Как-то я уже писал о том, что принцип непричинения вреда по Миллю не только является определяющим при ограничении свободы слова, но и становится фундаментом в пользовательских соглашениях, под которыми мы все ставим галочки. В этом случае, — самонадеянно заявлял я, — именно возможный вред может быть единственной причиной для цензуры, где понятие «вред» включало в себя нанесение физического вреда или ущерба с коммерческой точки зрения.

В это понятие я не включал возможный вред личным, религиозным или идеологическим убеждениям. Как же я ошибался! Я наивно полагал, что люди спокойно могут спокойно высказывать свои мысли, не нарушая ничьих границ.

Я больше не могу в это верить, когда Цезарь Сайок до рассылки посылок с бомбами долгое время вел в Twitter и Facebook аккаунт экстремистского толка; когда устроивший массовый расстрел в синагоге Роберт Бауэрс в своих социальных профилях постил записи о теориях заговора и антисемитские призывы; когда выясняется, что победивший в выборной президентской гонке Бразилии Жаир Болсонару использовал мошеннические техники сбора электронных голосов через WhatsApp. Скорее всего, эти трое изначально не отличались большими добродетелями, но именно социальные сети помогли распространить их самые вредные и безумные идеи.

На уровне интуиции многие из нас понимают, что язык ненависти ведет к злым поступкам, и недавно проведенное исследование это доказывает.

Как следствие, эксперты по социальным сетям склонны уходить от либеральной традиции и поддерживать регулирование платформ и поведения пользователей со стороны главных компаний в индустрии.

Зейнеп Туфекки, исследователь в сфере социальных наук, изучает влияние цифровых технологий на культуру и общество. Он считает, что «понятие Милля о свободном пространстве идей, порождающем истину, дискредитируется стремительностью распространения сфабрикованных новостей». Рене ДиРеста, директор исследовательского направления в компании New Knowledge, которая борется за защиту организаций от дезинформационных атак, требует введения режима полной открытости и отчетности для интернет-гигантов.

Гиганты индустрии социальных сетей не очень рады перспективе регулирования, но не могут игнорировать требования пользователей. В прошлом январе Facebook вместе с ЕС подписал добровольный «кодекс этического поведения», согласно которому компания в течение суток обязуется удалять материалы, разжигающие ненависть. По последним данным, в течение 2017 года Facebook ежемесячно удалял 280 тысяч записей, нарушающих кодекс.

Twitter, в свою очередь, также отказался от своего лозунга «стать крылом для свободы слова». Вице-президент компании по общественным отношениям в Европе, Среднем Востоке и Африке заявил, что философский подход Джона Милля не соответствует духу времени:

«Невозможно бороться за полную свободу слова в надежде, что мир сам справится с гомофобией или экстремизмом… Нам придется принимать меры по ограничению символов ненависти и блокировать профили, имеющие отношение к пропаганде насилия».

В сентябре этого года компания Twitter приняла новые правила, запрещающие «пропаганду античеловечных ценностей».

В октябре я поучаствовал в общественных обсуждениях, которые разгорелись после утечки одного из меморандумов компании Google, где я был упомянут в качестве «ведущего мыслителя области». Меморандум опубликовала ультраконсервативная газета Breitbart News и обвинила алгоритмы Google в том, что они намеренно не выводят ультраправые высказывания в поиске.

Мое участие в этом меморандуме на деле было минимальным: британская исследовательская организация год назад взяла у меня интервью. В то время Google пытался решить проблемы с подцензурным китайским поисковым движком (т.н. Dragonfly), испытывал внутренний раскол, справлялся с отставкой ведущего исследователя и боролся за модерирование видео и комментариев на YouTube. Я помогал компании разобраться в том, как алгоритмы могут изменить или скрыть от глаз сказанное в сети. Пусть идеи Милля о пространстве идей утопичны, но Google вовсе не мечтал, чтобы производимый ими программный код привел нас к антиутопии.

Рекомендации для компаний, озвученные в меморандуме, звучали вполне рационально и сдержанно: «старайтесь придерживаться своей позиции», «ясно и четко доносите свои стандарты», «работайте над коммуникацией», «относитесь к решению проблем со всей серьезностью», «предоставляйте инструкции в положительном тоне».

Беспристрастность — вот, что ставят во главу угла эти рекомендации. В них чувствуется размышление о возможных единых стандартах, которыми могли бы руководствоваться интернет-компании при принятии решений. Тем не менее, я чувствую некоторую фрустрацию.

Подобно человеку викторианской эпохи, потерявшему Бога, я слышу предсмертный вопль либерализма. И мне жаль.

Интересную мысль я увидел в работах молодого профессора MIT Джастина Кху. Он видит спасение открытого пространства идей Милля в принципе «дискурсивной нетерпимости». Кху пишет: «Нам необходимо понять, как жить дальше среди противоречивых взглядов». В частности нам нужно решить, до какой степени мы готовы принять взгляды, которые не разделяем:

«Учитывая нашу склонность к совершению ошибок, Милль считал лучшим способом получения знаний и дальнейшего развития открытое пространство идей — т. е. публичное обсуждение с разнообразием взглядов, которые оцениваются с позиции рациональности и доказательств».

Толерантность в таком случае может сыграть не самую приятную роль: в реальном мире порой необходимо прекращать подачу кислорода некоторым мнениям ввиду невозможности конструктивного их обсуждения. Кху приводит пример:

«Предположим, существует широко распространенное мнение X, согласно которому представителям определенных групп (назовем их Y) нельзя доверять, поскольку они глупы, поверхностны и предвзяты. Представим, что такой взгляд настолько укрепился в общественном сознании, что любые рациональные аргументы против группы, разделяющей мнение X, будут отметены вне зависимости от объективных критериев. Распространенность убеждений X поставит под угрозу пространство идей. Мнение группы Y не будет услышано, а ее взгляды не будут рассмотрены. В таком случае, во имя защиты общего пространства идей нам необходимо быть дискурсивно нетерпимыми к мнению X и его последователям…»

Конечно, в этой идее есть некоторые проблемы, о которых сам Кху и упоминает. К примеру, если невозможно принять утверждения «первого уровня», нужно ли запускать обсуждения «второго уровня» о том, стоит ли принимать такие утверждения? Дискурсивная нетерпимость — весьма рискованное мероприятие: если широко представленная группа последователей какого-либо мнения окажется в рядах изгнанных, не устроят ли они бунт и не покинут ли общественное пространство вовсе?

И самое главное — сама по себе идея Кху не очень надежна. Учитывая, что человек по своей природе, как мы помним, подвержен ошибкам, как мы можем быть уверены в том, что цель для проявления нетерпимости была выбрана верно? Понятия вреда, наносимого всему пространству, явно недостаточно.

Давайте представим, как дискурсивная нетерпимость сработала бы в современных реалиях. Интернет-платформы вообще не предназначены для выявления правды, да и не факт, что пользователям это необходимо. Но при правильном применении дискурсивная нетерпимость могла бы определить степень ответственности интернет-компаний перед пользователями, акционерами и обществом в целом.

Проведем аналогию: единственное мнение, которое ставит под угрозу функционирование демократии — это антидемократические взгляды. Единственное мнение, которое ставит под угрозу функционирование платформ социальных сетей — это пропаганда ненависти, приводящая к исключению пользователей из сети.

Любопытно, что Милль предвидел некоторые аргументы Кху: он считал фальшь и лицемерие (что однозначно сегодня назвали бы формой троллинга) крайне неэтичной формой выражения мысли, которая не заслуживает уважительного отношения.

Наши голоса в современном мире слишком громки. За их грохотом не разобрать смысла. Дискурсивная нетерпимость и культивированный трезвый взгляд на происходящее могут снизить общий объём информации и уровень ее громкости. Я удалил 60 000 собственных твитов. Я отказался от Facebook и ленты новостей в социальных сетях. Я перестал исправлять ошибки других пользователей. Перестал вести свои профили. Я почувствовал порядок и надежность в своей жизни.

Я не хочу ограничивать свободу слова. Я хочу ограничить инфошум. Хочу, чтобы мы следили за словами. Следили за тем, чтобы они не приносили вреда.

Чем меньше слов, тем больше вес каждого из них.