Китайские исследователи создали CAS(ME) 3 , крупномасштабную базу данных спонтанных микровыражений с глубинной информацией и высокой экологической достоверностью. Ожидается, что он возглавит следующее поколение анализа микровыражений.
CAS(ME) 3 предлагает около 80 часов видео с более чем 8 000 000 кадров, включая 1 109 микровыражений, помеченных вручную, и 3 490 макровыражений, по словам доктора Ван Суцзин, руководителя исследовательской группы и исследователя Института психологии Китая. Китайская академия наук.
В качестве важных невербальных сигналов коммуникации микровыражения могут выявить подлинное эмоциональное состояние человека. Развитие анализа микровыражений привлекло внимание, особенно в связи с расцветом методов глубокого обучения в области анализа микровыражений. Однако исследования как в области психологии, так и в области искусственного интеллекта были ограничены небольшой выборкой микровыражений.
«Размер данных жизненно важен для использования искусственного интеллекта для проведения анализа микровыражений, а большой размер выборки CAS(ME) 3 позволяет проводить эффективную проверку метода анализа микровыражений, избегая предвзятости базы данных», — сказал доктор Ван.
Одним из основных преимуществ CAS(ME) 3 является то, что образцы в базе данных содержат информацию о глубине . Введение такой информации было вдохновлено психологическим экспериментом по визуальному восприятию человеком микровыражений. Испытуемых просили посмотреть 2D- и 3D-видео с микровыражениями и ответить на три вопроса об эмоциональной валентности видео, эмоциональном типе и эмоциональной интенсивности. Более короткое время реакции и более высокая оценка интенсивности для 3D-видео показали, что информация о глубине может облегчить распознавание эмоций.
Продемонстрировав эффективность информации о глубине зрительного восприятия человека, исследователи продолжили работу над интеллектуальным анализом микровыражений. «Алгоритмы могут быть более чувствительными к непрерывным изменениям в микровыражении с помощью информации о глубине», — сказал доктор Ли Цзинтин, первый автор исследования и научный сотрудник Института психологии.
Еще одним преимуществом CAS(ME) 3 является его высокая экологичность. В процессе выявления исследователи оптимизировали среду сбора данных, чтобы она была максимально приближена к реальности, а участники участвовали в инсценировке преступления и допросе. В ходе этого процесса с помощью видеомагнитофона и носимых устройств регистрировались видео-, голосовые и физиологические сигналы, включая электрокожную активность, частоту сердечных сокращений /пульс на кончиках пальцев, дыхание и пульс.
Эксперимент показал, что субъекты в сценариях с высокими ставками (например, совершение преступления) пропускают больше микровыражений, чем в сценариях с низкими ставками (например, невиновность). Таким образом, образцы с высокой экологической достоверностью обеспечивают основу для надежного анализа микровыражений в реальном мире и понимания эмоций.
Важно отметить, что одним из средств решения проблемы небольшого размера выборки микровыражений является обучение без учителя. Как форма обучения без учителя, обучение с самостоятельным наблюдением стало горячей темой. Естественно использовать дополнительную информацию о глубине или большее количество кадров, связанных с микровыражениями, для создания меток и построения самоконтролируемых моделей обучения для анализа микровыражений. CAS(ME) 3 предоставляет 1508 неразмеченных видео с более чем 4 000 000 кадров, что делает его платформой данных для неконтролируемых методов анализа микровыражений.
Исследователи из Института психологии под руководством профессора Фу Сяоланя ранее выпустили еще три базы данных микровыражений, то есть CASME, CASME II и CAS(ME) 2 . Более 600 исследовательских групп из более чем 50 стран запросили эти базы данных, и более 80% всех статей по анализу микровыражений использовали хотя бы одну из них для проверки метода.
Используя CAS(ME) 3 и предыдущие базы данных, в будущем можно ожидать анализа микровыражений, основанного на самоконтролируемом обучении с использованием немаркированных данных, мультимодальных исследований, а также физиологических и голосовых сигналов.
Это исследование было опубликовано 13 мая в журнале IEEE Transactions on Pattern Analysis and Machine Intelligence.
Теги: ИИ, Китай, распознавание