Платформы для видеоконференций, такие как Skype, Microsoft Teams, Zoom и Google Meet, позволяют людям удаленно общаться с другими людьми в разных частях мира. Пандемия COVID-19 и последовавшие за ней меры по социальному дистанцированию привели к дальнейшему росту использования этих платформ, поскольку это увеличило удаленную работу и виртуальное сотрудничество.
Большинство платформ для видеоконференций теперь также позволяют пользователям использовать виртуальные фоны, чтобы им не нужно было показывать своим коллегам свою домашнюю среду и снизить риск отвлечения внимания. Эти виртуальные фоны могут быть i) реальными (текущими), ii) виртуальными (например, морской пейзаж или космическое пространство ) и iii) поддельными, которые являются реальными, но не текущими фонами. Хотя возможность изменить фон повышает конфиденциальность пользователей, поддельные фоны также могут использоваться со злым умыслом , чтобы создать впечатление ложного местоположения, например, предполагая, что пользователь находится в офисе, когда он на самом деле дома.
Исследователи из Университета Сабанчи в Турции, Международного университета Флориды в США и Университета Падуи в Италии недавно разработали инструмент, который можно использовать для различения реального и виртуального фона на платформах для видеоконференций. Было обнаружено, что их метод, представленный в статье, предварительно опубликованной на arXiv, успешно различает реальный и «искусственный фон» в двух различных и распространенных сценариях атак.
«Недавно ученые доказали , что большинство методов машинного и глубокого обучения уязвимы для состязательных атак в мультимедийной криминалистике », — рассказали TechXplore Эхсан Новрузи, Беррин Яникоглу, Ясин Мекдад, Сельчук Улуагач, Симоне Милани и Мауро Конти, проводившие исследование. по электронной почте». Фактически, в условиях пандемии несколько встреч были проведены удаленно с помощью программного обеспечения для видеоконференций, которое позволяет участникам использовать виртуальный фон для обеспечения конфиденциальности».
Некоторые прошлые исследования продемонстрировали возможность злоумышленников раскрыть реальное окружение участника путем утечки пикселей с виртуального фона. Однако у компаний также может быть законная потребность знать, действительно ли пользователь находится в представленном фоне.
Ключевой целью недавней работы Новрузи и его коллег было создание системы, которая могла бы надежно отличать реальный фон от виртуального или поддельного во время видеоконференции. В этом методе используются методы глубокого обучения, чтобы отличать реальный фон от поддельного или виртуального с высоким уровнем точности. Кроме того, их детектор можно использовать для обнаружения атак со стороны противника и поддельных фонов на широком спектре платформ видеоконференцсвязи.
«Система работает, рассматривая шесть матриц совпадений между тремя цветовыми каналами фона», — пояснили исследователи. «В поддельном или виртуальном фоне из-за статичности фонового изображения мы не видим изменений в спектральной области, — говорит Наврузи, — но найти взаимосвязь между каналами сложно. Поэтому единственный способ — использовать перекрестные совпадения по каналам и передавать их в детектор на основе глубокого обучения».
«Мы — первая группа, которая предоставляет модель на основе CNN, способную различать реальный фон от виртуального или фальшивого во время видеоконференции», — сказали Наврузи и его коллеги. «Более того, мы достигли высокой точности 99,80% в случае, когда детектор знает об атаке, и высокой надежности даже в случае неосведомленного детектора».
В будущем детектор на основе CNN, разработанный этой группой исследователей, можно будет использовать для подтверждения подлинности фона видеоконференций в профессиональных условиях, а также в правоохранительных и судебных учреждениях. Тем временем Новрузи и остальная часть команды планируют продолжить работу над своим детектором, чтобы еще больше улучшить его производительность и универсальность. В идеале они хотят, чтобы этот детектор был применим к самым популярным платформам видеоконференций, включая Zoom, Google Meet и Microsoft Teams.
«Наше будущее исследование сначала рассмотрит случай, может ли противник обмануть детектор, если он сможет получить доступ к междиапазонным совпадениям», — добавили Наврузи и его коллеги. «Во-вторых, мы планируем оценить наш детектор в сценарии, когда злоумышленник рассматривает движущийся виртуальный фон (например, клипы)».
Теги: VR, видеозвонки, ИИ, Интернет