Дистилляция знаний и маскированная реконструкция для обобщения домена в повторном распознавании пешеходов

ZHENG Haotian ,  

HU Haifeng ,  

摘要

Задачи обобщения домена в повторном распознавании пешеходов связаны с двумя врожденными ограничениями существующих базовых методов: 1) существует явный доменный разрыв между наборами данных, 2) недостаточно разнообразия внутри домена данных. Некоторые современные методы совместного обучения на нескольких доменах часто не могут достаточно хорошо изучить скрытые идентификационные признаки между кросс-доменных наборов данных. Для преодоления указанных ограничений в этой работе предложена двухветвная стратегия для улучшения обобщающей способности модели. Сначала применяется дистилляция знаний на расширенной модели, предобученной на большом объеме данных, одновременно с извлечением маскированных характеристик изображений из существующих многодоменных обучающих данных. Эксперименты на стандартных протоколах обобщения домена в повторном распознавании пешеходов демонстрируют эффективность предложенного подхода. В тесте leave-one-out на целевом домене Market-1501 метод улучшил точность Rank-1 на 16.2% по сравнению с базовыми методами и достиг повышения на 3.6% по сравнению с лучшими существующими методами по точности Rank-1.

关键词

повторное распознавание пешеходов; обобщение домена; дистилляция знаний; маскированные изображения

阅读全文