Кризис доверия 2.0: как дипфейки разрушают нашу связь с реальностью
Летом 2025 года президент США Дональд Трамп выложил в своей соцсети Truth Social видео ареста его предшественника Барака Обамы. Политик не скрывал, что видео сгенерировано нейросетью, но часть аудитории все равно поверила в происходящее. В этом примере кроется главная проблема дипфейков: в некоторых ситуациях мы даже не пытаемся отличить реальность от вымысла. Разбираемся, как с этим бороться.

Добро пожаловать в эру симулякров: что такое синтетические медиа?
Термин «синтетические медиа» звучит технически, словно он существует только на страницах монографий или в разговорах цифровых специалистов. Но на самом деле мы сталкиваемся с ним ежедневно. Речь идет о контенте (изображениях, видео и аудио), который не снят на камеру и не записан текстом, а сконструирован алгоритмами. Это сгенерированные изображения, голос, мимика, движения тела, у которых нет реального прообраза или источника. По данным компании Wondercraft, в 2025 году почти 83% создателей контента использовали ИИ-технологии либо на протяжении всего рабочего процесса, либо на отдельных этапах. И эта доля продолжает расти.
Феномен несуществующей реальности нельзя назвать принципиально новым. Философ Жан Бодрийяр еще в конце XX века создал концепцию симулякров — копий без оригинала, которые вытесняют действительность. Тогда его идея могла показаться абстрактной, но сегодня она стала пугающе буквальной.
Дипфейк-видео — настоящий симулякр. Это сгенерированное изображение события, которого не было, но которое воспринимают как достоверное, потому что оно соответствует всем визуальным ожиданиям. Иными словами, это альтернативная, синтетическая версия реальности.
Технологическим ядром появления дипфейков стали генеративно-состязательные сети (GAN). Их принцип предельно прост: одна нейросеть генерирует изображение или видео, вторая пытается распознать подделку. В процессе этого противостояния обе системы обучаются. В результате ИИ начинает создавать искусственный контент, который все труднее отличить от настоящего.
В 2025 году аналитики российской компании MWS AI провели эксперимент: они собрали 1,6 тыс. испытуемых старше 18 лет и показали им десять фото, четыре из которых были сгенерированы нейросетью. В результате более 60% россиян не смогли отличить дипфейки от реальных снимков. А один из поддельных кадров посчитали правдивым 81% участников опроса.

Теперь добавьте к этому синтез речи ИИ. Современные модели способны воспроизводить голос конкретного человека, получив всего несколько минут записи его разговора. Нейросети копируют тембр, интонации и даже характерные паузы. В сочетании с визуальными моделями это создает эффект «полного присутствия»: человек на экране говорит, двигается и звучит так, как мы ожидаем. В такие моменты возникает вопрос: как отличить дипфейк от реальности? Однозначного ответа пока нет.
Важно понимать, что синтетические медиа изначально не были нашими врагами. Те же самые технологии лежат в основе безобидных фильтров из Snapchat и функций в соцсетях. Они улучшают качество фотографий, автоматически озвучивают видео и реставрируют архивные записи.
Именно «безобидные» пользовательские запросы стали главным драйвером развития GAN-моделей. Но вместе с ними бонусом мы получили дипфейки, которые используют для дезинформации, политической пропаганды и управления общественным мнением.
Порой даже опровергнутый фейк продолжает распространяться и таким образом влиять на восприятие аудитории, как было в случае с «арестом» Барака Обамы. Визуальный след иногда оказывается сильнее рационального объяснения. Подобный механизм самообмана, когда мы начинаем верить в искусственно созданный образ, лежит и в основе феномена цифрового двойника, который управляет нашей жизнью в соцсетях.
Реальность такова, что пользователи уже не могут доверять собственным глазам. По данным «Лаборатории Касперского», дипфейки все чаще используют для дезинформационных кампаний, шантажа, фишинга и финансового мошенничества. Мы живем в эпохе, где изображение больше не подтверждает реальность, а лишь демонстрирует качество работы алгоритма. Но в чем на самом деле заключается главная опасность сгенерированного контента?

«Дивиденды лжеца»: главная угроза дипфейков не в том, что мы поверим в ложь
Когда говорят про угрозу дипфейков, чаще всего имеют в виду очевидный сценарий: нас обманут, мы поверим в фальшивое видео, примем ложь за правду. Но это поверхностный страх. Гораздо опаснее другой эффект — ситуация, в которой сама возможность создания дипфейка начинает работать на тех, кто лжет осознанно. Именно этот эффект американские исследователи Бобби Чесни и Даниэль Ситрон назвали liar’s dividend, или «дивиденды лжеца».
В мире, где созданные ИИ фейковые новости и синтетические видео стали обыденностью, любой человек, которого обвиняют в резком высказывании в сети, получает универсальную линию защиты: «Это не я. Это дипфейк». И чем более убедительными становятся технологии, тем лучше работает этот аргумент.
Парадокс в том, что даже подлинные доказательства начинают выглядеть сомнительно. Мы больше не можем с уверенностью сказать, что правда, а что ложь, а значит, вынуждены сомневаться во всем.
Ситрон и Чесни утверждали, что общество слишком зациклилось на способах распознавания фейков. На самом деле реальная угроза возникает, когда само существование факта ставится под сомнение. В этот момент выигрывает не тот, кто лучше всех создает технологии обмана, а тот, кто первым использует их для защиты. В этом заключается фундаментальный кризис доверия ИИ: мы перестаем верить самому обществу.
Этот эффект уже показал себя на практике. После массового обсуждения дипфейков уровень доверия к видеодоказательствам падает даже в тех случаях, когда эксперты подтверждают их подлинность. Люди начинают рассуждать иначе: «Если подделать можно все, значит, верить нельзя ничему». Такая логика делает ИИ-пропаганду самым изощренным методом обмана.

Сегодня исследователи отмечают, что современная дезинформация все чаще строится не на убеждении, а на дезориентации. Ее цель — создать ощущение, что правды не существует в принципе. По словам ученых, дипфейки не опасны сами по себе. Угроза заключается в том, что их используют как инструмент подрыва доверия к любым цифровым свидетельствам, включая судебные и журналистские доказательства.
В этом контексте созданные с помощью ИИ фото и видео становятся лишь симптомом более разрушительной виртуальной болезни. Настоящая проблема кроется в размытии границ между правдой и вымыслом. Раньше ложь нужно было упорно доказывать, а правду — лишь подтвердить несколькими фото, видео или записями. Теперь все наоборот: любое утверждение принимают только после сложной многоуровневой верификации, а опровергнуть любой факт можно простой фразой: «Это искусственный интеллект». Но как смена ориентиров отражается на жизни и поведении пользователей?
Психология паранойи: как мозг реагирует на мир без правды
Когда правда и ложь сливаются воедино, в первую очередь страдают не политики и СМИ, а психика. Информационная тревожность становится постоянным спутником: человек больше не знает, чему можно верить. Раньше фото, видео и аудио были подобны маяку в кромешной тьме: помогали принимать решения и формировать представление о реальности. Но теперь каждый сигнал кажется подозрительным. Мозг вынужден постоянно работать в режиме сомнения. На это тратится много ресурсов, из-за чего страдает психологическая устойчивость. В итоге это приводит к состоянию генерализованной тревожности, когда беспокойство становится постоянным фоном жизни.

Исследования в области когнитивной психологии показывают, что неопределенность сама по себе является сильным фактором стресса. Сегодня правда и ИИ-вымысел визуально неотличимы, из-за чего мозгу становится сложнее оценить достоверность события. Мы эволюционно запрограммированы доверять глазам и ушам, но именно эти каналы получения информации все чаще нас подводят. Отсюда возникает ощущение, что мир стал «скользким»: любой факт может оказаться фальшивкой, но проверить все сразу невозможно.
На фоне этого усиливаются когнитивные искажения, прежде всего склонность верить только той информации, которая подтверждает уже существующие взгляды.
Психология дипфейков работает предельно просто: чем больше мы думаем о возможной подделке, тем избирательнее доверяем увиденному. Видео, которое поддерживает нашу позицию, кажется настоящим, а противоречащее вызывает подозрения. Выходит, синтетические медиа делят нас на разные «лагеря» и не дают выйти за их пределы.
Еще одно когнитивное искажение связано с тем, как ИИ обманывает мозг на уровне восприятия. Эксперименты показывают: даже когда участники знают, что перед ними могут быть дипфейки, они реагируют на них так же, как на подлинные записи. Мозг сначала дает эмоциональную реакцию и только потом (по возможности) начинает анализировать ситуацию с точки зрения рациональности. Это означает, что синтетический контент способен вызывать страх, гнев или сочувствие еще до того, как мы зададим вопрос о его подлинности. Чем это грозит? Прежде всего психологической усталостью.
«Нервная система устроена так, что нам все равно, от кого мы получаем информацию: от живого человека или искусственного интеллекта. Мозг воспринимает эти два источника одинаково. Из-за обилия ложных сигналов может произойти эмоциональная перегрузка», — рассказала психолог Юлия Габерштейн.
Из-за постоянной необходимости сомневаться во всем психика переходит в состояние перманентной обороны. Мы все время используем защитные тактики, одна из которых — апатия. Логика простая: «Если все может оказаться фейком, то нет смысла разбираться». Другая — цинизм. Иногда пользователи маскируют его под критическое мышление, но на деле они просто отказываются от самой идеи объективной реальности. Это состояние описывают как «паранойю без врага»: мы не знаем, кто нас обманывает, но уверены, что ложь повсюду.

Социальные нормы стремительно меняются. Информационная тревожность и недоверие становятся постоянными спутниками в сети и перегружают психику. В таком состоянии человеку проще согласиться с готовым, пусть даже ложным нарративом, чем находиться в состоянии вечной неопределенности. Политики охотно пользуются психологической уязвимостью: общество, уставшее от сомнений, готово поверить в простые и эмоциональные объяснения, даже если они могут оказаться ложными. Мы доверяем фактам, которые помогают сохранить целостную картину мира. И в этом смысле дипфейки опасны не тем, что искажают реальность, а тем, что учат нас жить без нее.
Гонка вооружений: можно ли выиграть войну с фейками?
Дипфейки стали новой нормой, с которой нам предстоит жить. Но можно ли с ними бороться? Быстрого и простого ответа, увы, не существует. Мы буквально находимся в гонке вооружений, где каждая новая технология подделки порождает метод защиты, а затем уступает ему — и все начинается заново. Поэтому говорить приходится сразу о нескольких уровнях противодействия: техническом, юридическом и человеческом.
Первый уровень — верификация контента. Крупные технологические компании и исследовательские центры уже работают над системами цифровых «паспортов» для медиафайлов. Идея проста: изображение или видео получают метаданные о происхождении — где, когда и на каком устройстве они были созданы. Если файл форматировали повторно, это фиксируется в коде. Так появляются цифровые водяные знаки и попытки использовать блокчейн как реестр доверия. Эти решения полезны, но у них есть ограничение. Старый файл без метаданных или неофициальное видео, вырезанное из контекста, по-прежнему остается неподтвержденным.

Кроме того, техническая защита всегда отстает. Эксперты по кибербезопасности говорят: детекторы дипфейков не могут полностью защитить нас. Любой алгоритм распознавания можно обойти, если достаточно долго и целенаправленно пытаться это сделать. Поэтому верификация контента лишь снижает риск обмана, но не устраняет его полностью.
Второй уровень — юридическое давление. В США, Китае и Южной Корее уже появились законы, ограничивающие использование дипфейков, особенно в политике и рекламе. Но и эта мера решает лишь часть проблемы. Закон может наказать за распространение, но не может вернуть утраченное доверие. К тому же регулирование всегда запаздывает: технологии меняются быстрее, чем правовые формулировки. Здесь на первый план выходит вопрос этики дипфейков, ведь не все, что технически возможно, должно становиться социальной нормой.
И все же главный уровень этого противостояния человеческий. По словам профессора Калифорнийского университета Хани Фарида, ни алгоритмы, ни законы не сработают, если аудитория будет лишь пассивно поглощать контент, не анализируя его. Визуальная грамотность стала таким же базовым навыком, как умение читать и писать. Не беспокойтесь, вам не нужно становиться специалистом по ИИ или кибербезопасности.
Нужно научиться задавать простые вопросы: откуда это видео? кому выгодно его распространение? есть ли подтверждения из независимых источников?
ИИ и медиаграмотность сегодня связаны сильнее, чем может показаться на первый взгляд. Именно поэтому важно научиться жить в среде, где технологии активно участвуют в создании реальности. Но не стоит путать бдительность с недоверием ко всему подряд. Медиаграмотность — это скорее управляемое сомнение. Человек, овладевший ею, не впадает в панику и не уходит в цинизм. Он осознает, что мир стал сложнее, и адаптируется к этому. Именно здесь мы выходим на более глубокий уровень и начинаем рассуждать об эпистемологии ИИ — о том, как в принципе возможно знание в эпоху алгоритмов.

Ведь раньше источником истины был свидетель или документ, а теперь между нами и реальностью стоит сложная компьютерная система. Полностью избавиться от фейков сейчас невозможно. Мы не можем заставить нейросети капитулировать, но можем адаптироваться к их влиянию. Человечеству приходится жить в мире, где кредит доверия уже исчерпан, а критическое мышление стало навыком выживания. Поделитесь этим знанием с близкими — им тоже будет полезно разобраться, как противостоять современным технологиям обмана.