Возможно, самым пугающим аспектом ИИ является его способность генерировать фейковые изображения.
Конечно, некоторые вызывают смех. Лицо Арнольда Шварценеггера наложено на лицо «Грязного Гарри» Клинта Иствуда, направляющего оружие на убегающего подозреваемого. Майк Тайсон превратился в Опру. Дональд Трамп превратился в Боба Оденкерка из «Лучше звоните Солу». Николас Кейдж в роли Лоис Лейн в «Супермене».
Но последние события предвещают еще более тревожную тенденцию: цифровая фальсификация становится вредоносной.
Буквально на прошлой неделе актер Том Хэнкс обратился в социальные сети , чтобы осудить рекламу, в которой использовалось его изображение, созданное искусственным интеллектом, для продвижения плана стоматологического лечения. Популярный ютубер Mr. Beast, видео которого с 2012 года набрали более 50 миллиардов просмотров, ошибочно предлагал iPhone 15 Pros за 2 доллара.
Под удар попадают и обычные граждане. Лица людей появляются на изображениях в социальных сетях без их согласия. Наибольшее беспокойство вызывает рост случаев «порномести», когда брошенные любовники публикуют сфабрикованные изображения своих бывших партнеров в компрометирующих или непристойных позах.
И поскольку политически разделенные Соединенные Штаты с опаской приближаются к крайне спорной битве за пост президента в 2024 году, перспектива поддельных изображений и видео обещает беспрецедентно уродливые выборы.
Кроме того, распространение фейковых изображений разрушает правовую систему, какой мы ее знаем. Как недавно сообщило национальное некоммерческое издание NPR, юристы наживаются на незадачливой публике, иногда озадаченной тем, что правда, а что ложь, и все чаще оспаривают доказательства, представленные в суде.
Хани Фарид, специализирующийся на анализе цифровых изображений в Калифорнийском университете в Беркли, сказал: «Это именно то, что нас беспокоило: когда мы вступили в эпоху дипфейков, любой может отрицать реальность».
«Это классический дивиденд лжеца», — сказал он, имея в виду термин, впервые использованный в 2018 году в отчете о потенциальном посягательстве дипфейков на конфиденциальность и демократию .
Крупнейшие цифровые медиа-компании — OpenAI, Alphabet, Amazon, DeepMind — пообещали разработать инструменты для борьбы с дезинформацией. Одним из ключевых подходов является использование водяных знаков на контенте, созданном искусственным интеллектом.
Но статья, опубликованная 29 сентября на сервере препринтов arXiv, поднимает тревожные новости о возможности обуздать такое цифровое злоупотребление.
Профессора Университета Мэриленда провели тесты, продемонстрировавшие возможность легкого обхода защитных водяных знаков.
«На данный момент у нас нет надежных водяных знаков», — сказал Сохейл Фейзи, один из авторов отчета «Надежность детекторов изображений искусственного интеллекта: фундаментальные ограничения и практические меры».
Фейзи сказал, что его команда «сломала их всех».
«Неправильное применение ИИ создает потенциальные опасности, связанные с дезинформацией, мошенничеством и даже проблемами национальной безопасности, такими как манипулирование выборами», — предупредил Фейзи. «Дипфейки могут привести к личному вреду, начиная от клеветы на персонажей и заканчивая эмоциональными страданиями, затрагивающими как отдельных людей, так и общество в целом. Следовательно, идентификация контента, созданного ИИ… становится важнейшей проблемой, которую необходимо решить».
Команда использовала процесс, называемый диффузионной очисткой, который применяет гауссов шум к водяному знаку, а затем удаляет его. Он оставляет искаженный водяной знак, который может обойти алгоритмы обнаружения. Остальная часть изображения изменена лишь минимально.
Они также успешно продемонстрировали, что злоумышленники, имеющие доступ к алгоритмам нанесения водяных знаков «черного ящика», могут подделывать фальшивые фотографии с маркировкой, которая обманывает детекторы, заставляя их поверить в их подлинность.
Лучшие алгоритмы обязательно появятся. Как и в случае с вирусными атаками, плохие парни всегда будут работать над тем, чтобы сломать любую защиту, которую придумают хорошие парни, и игра в кошки-мышки будет продолжаться.
Но Фейзи выразил некоторый оптимизм.
«Судя по нашим результатам, разработка надежного водяного знака является сложной, но не обязательно невыполнимой задачей», — сказал он.
На данный момент людям следует проявлять должную осмотрительность при просмотре изображений, содержащих контент, который может быть для них важен. Необходимы бдительность, перепроверка источников и изрядная доза здравого смысла.
Теги: IT, хакеры