Фейки угрожают всем сферам жизни общества. Наша способность выявлять фальшивый контент имеет решающее значение для противодействия дезинформации, но по мере развития технологий искусственного интеллекта возникает вопрос, кому мы можем доверить выявление фейков: человеку или машине?
Опасность подделок
По мере развития технологий искусственного интеллекта все большую опасность для всех нас представляют фальшивки. Ниже приводится краткое описание некоторых наиболее актуальных проблем, возникающих в связи с фальшивками:
Фальшивки будут становиться все более убедительными, поэтому нам нужны надежные инструменты и процессы для их обнаружения. ИИ предоставляет такой инструмент в виде моделей обнаружения фальшивок. Однако, как и алгоритмы, предназначенные для обнаружения сгенерированных ИИ надписей, инструменты обнаружения фальшивок не совершенны.
В настоящее время единственным инструментом, на который мы можем положиться, является человеческое усмотрение. Так лучше ли мы, чем алгоритмы, умеем обнаруживать фальшивки?
Могут ли алгоритмы обнаруживать фейки лучше, чем человек?
Deep Fake представляют собой достаточно серьезную угрозу, поэтому технологические гиганты и исследовательские группы выделяют огромные средства на их изучение и разработку. В 2019 году такие компании, как Meta, Microsoft и Amazon, предложили 1 000 000 долларов США в качестве приза за самую точную модель обнаружения дип фейков.
Модель, показавшая наивысший результат, имела точность 82,56% по отношению к набору данных общедоступных видеороликов. Однако когда те же модели были протестированы на «черном ящике» из 10 000 неизвестных видеороликов, точность модели, показавшей лучший результат, составила всего 65,18%.
Кроме того, существует множество исследований, в которых анализируется эффективность работы искусственного интеллекта по выявлению фальшивок в сравнении с человеком. Конечно, в разных исследованиях результаты отличаются, но в целом люди либо равны, либо превосходят по успешности инструменты для обнаружения фальшивок.
В одном из исследований 2021 года, опубликованном в PNAS, было обнаружено, что «обычные человеческие наблюдатели» достигли несколько более высокой точности, чем ведущие средства обнаружения фальшивок. Однако в ходе исследования также было установлено, что участники-люди и модели ИИ были подвержены разным типам ошибок.
Интересно, что исследования, проведенные в Сиднейском университете, показали, что человеческий мозг бессознательно более эффективен в обнаружении фальшивок, чем наши сознательные усилия.
Обнаружение визуальных признаков в подделках
Наука обнаружения фальшивок сложна, и необходимый анализ зависит от характера видеоматериала. Например, печально известное видео с deep фейком северокорейского лидера Ким Чен Ына, сделанное в 2020 году, по сути, представляет собой видео с говорящей головой. В этом случае наиболее эффективным методом обнаружения deepfake может быть анализ виземов (движений рта) и фонем (фонетических звуков) на предмет несоответствий.
Подобный анализ могут проводить и эксперты, и случайные зрители, и алгоритмы, даже если результаты будут разными. Массачусетский технологический институт определяет восемь вопросов, помогающих выявить фальшивые видеоролики:
Новейшие средства обнаружения фальшивок с помощью искусственного интеллекта могут анализировать те же факторы, но с разной степенью успешности. Ученые, занимающиеся изучением данных, постоянно разрабатывают и новые методы, например, выявление естественного кровотока в лицах экранных дикторов. Новые подходы и усовершенствование существующих могут привести к тому, что в будущем средства обнаружения дипфейков с помощью ИИ будут постоянно превосходить человека.
Обнаружение звуковых подсказок в фальшивках
Обнаружение дипфейк аудиозаписей — совершенно другая задача. Не имея визуальных подсказок видео и возможности выявить аудиовизуальные несоответствия, обнаружение дип фейков в значительной степени опирается на анализ звука (в некоторых случаях могут помочь и другие методы, например проверка метаданных).
Исследование, опубликованное Университетским колледжем Лондона в 2023 г., показало, что человек способен распознать поддельную речь в 73% случаев (английский и мандаринский языки). Как и в случае с поддельными видео, люди часто интуитивно определяют неестественные речевые паттерны в речи, сгенерированной искусственным интеллектом, даже если не могут указать, что именно кажется неправильным.
К числу распространенных признаков относятся:
И снова алгоритмы могут анализировать речь на предмет тех же сигналов deepfake, но новые методы делают инструменты более эффективными. Исследование, проведенное USENIX, выявило закономерности в реконструкции голосового тракта ИИ, которые не позволяют имитировать естественную речь. В нем резюмируется, что голосовые генераторы ИИ производят звук, соответствующий узким голосовым трактам (размером примерно с соломинку для питья), без естественных движений человеческой речи.
Более ранние исследования Института Хорста Гёртца позволили проанализировать подлинные и поддельные аудиозаписи на английском и японском языках и выявить тонкие различия в высоких частотах подлинной речи и подделок.
И голосовой тракт, и высокочастотные несоответствия ощутимы как для человека, так и для моделей обнаружения искусственного интеллекта. В случае высокочастотных различий модели ИИ теоретически могут становиться все более точными, хотя то же самое можно сказать и об искусственных подделках.
Люди и алгоритмы обманываются deep fake, но по-разному
Исследования показывают, что люди и новейшие средства обнаружения искусственного интеллекта одинаково хорошо умеют распознавать фальшивки. В зависимости от параметров теста процент успеха может составлять от 50% до 90+%.
Таким образом, и люди, и машины в одинаковой степени обманываются дип фейками. Однако, что очень важно, мы по-разному восприимчивы к ним, и это может стать нашим главным преимуществом в борьбе с опасностями, которые таят в себе технологии дипфейк. Объединение сильных сторон человека и средств обнаружения подделок позволит сгладить недостатки каждого из них и повысить вероятность успеха.
Например, исследование Массачусетского технологического института показало, что люди лучше распознают подделки мировых лидеров и известных людей, чем модели искусственного интеллекта. Также было выявлено, что модели ИИ испытывают трудности при работе с кадрами, на которых присутствуют несколько человек, хотя это может быть следствием того, что алгоритмы были обучены на кадрах с одним выступающим.
И наоборот, в том же исследовании было обнаружено, что ИИ-модели превосходят людей при работе с низкокачественными кадрами (размытыми, зернистыми, темными и т.д.), которые могут быть намеренно использованы для обмана зрителей. Аналогичным образом, недавно разработанные методы обнаружения ИИ, такие как мониторинг кровотока в определенных областях лица, включают в себя анализ, на который человек не способен.
По мере разработки новых методов способность искусственного интеллекта обнаруживать признаки, которые мы не можем обнаружить, будет только улучшаться, как и его способность обманывать. Большой вопрос заключается в том, будут ли технологии обнаружения фальшивок и дальше опережать сами фальшивки.
Взгляд на вещи по-другому в эпоху deep fake
Инструменты ИИ для обнаружения фальшивок будут продолжать совершенствоваться, как и качество самого фальшивого контента. Если способность ИИ к обману превзойдет его способность к обнаружению (как это произошло в случае с текстом, сгенерированным ИИ), то человеческое усмотрение может стать единственным инструментом борьбы с фальшивками, который у нас остался.
Каждый обязан изучить признаки фальшивок и способы их обнаружения. Помимо защиты от мошенников и угроз безопасности, все, что мы обсуждаем и чем делимся в Интернете, подвержено дезинформации, если мы теряем понимание реальности.