开放科学(资源服务)标志码(OSID):
视频监控网络作为重要的基础安全公共设施已在全球范围内得到广泛运用。在智能监控普及的同时,需要对摄像头监控区域是否有重叠视域进行区分。在无重叠视域的多摄像机联合监控系统中,行人再识别[1]是关键问题,其定义为在无重叠区域的视频监控网络中判别目标行人是否具有关联性身份。目前,行人再识别已成为研究热点,国内外学者们提出了很多优秀的技术和方法[2-4]。在计算机视觉与机器学习相关的各大顶级国际会议上,也出现了很多关于行人再识别研究的成果[5-7]。
目前,行人再识别方法主要可分为基于人工设计特征和基于深度学习两类。在基于深度学习的方法中,监督学习[8-10]已被证明能够获得很好的性能,但存在需要利用目标行人图像数据标签的不足。因为手动打标签需要消耗很多的人力和时间资源,所以在任务执行过程中存在一定的限制性。无监督学习中常用到的算法有聚类、可视化与降维、关联学习等,与监督学习方法相比,无监督学习方法不需要对数据集的数据手动打标签,因此适用的数据集比较多,此类方法更具有可行性和扩展性。
在无监督学习中,三元组损失函数因能拉近样本和正样本间的距离而得到广泛应用,但其学习的仅仅是样本间的相对距离,只考虑了类间的差异性,没有学习绝对距离,忽视了类内的相似性。同时,不同摄像头下同一个人的不同图片外表特征差异较大,如果聚类合并时使用最大距离准则会放大差异性,导致不能合并来自不同摄像头下的同一人的图片。鉴于此,本文提出一种基于无监督学习的粗细粒度特征提取方法。分别通过相斥函数和相吸函数扩大类间差异和类内相似度,在此基础上进行特征学习和参数更新,同时使用最小距离准则将跨摄像头中差别较大拥有相同身份的人的图片聚类在一起,并对多个聚类进行逐步合并,解决特征差异性问题。
1 相关研究行人再识别问题定义为在无重叠区域的视频监控网络中判别目标行人是否具有关联性身份的任务,如图 1所示。其中,第1列给定一个行人图或是行人视频作为查询目标,在大规模数据库中找出与其相近的同一身份的行人图或行人视频,由同一行为同一身份的行人在不同摄像头下所拍摄到的图片不难发现,哪怕是同一身份的行人,在不同摄像头下也会有差异比较大的外观展示,主要影响因素有视角、光照、远近、遮挡等,但是即使有较大差异,仍然要对行人的身份进行正确匹配。行人再识别方法的识别流程如图 2所示。
![]() |
Download:
|
图 1 行人再识别问题示意图 Fig. 1 Schematic diagram of pedestrian re-identification problem |
![]() |
Download:
|
图 2 行人再识别流程 Fig. 2 Procedure of pedestrian re-identification |
在基于深度学习的行人再识别方法中,基于监督学习的方法被证明具有很好的性能。ZHU等[8]提出CycleGAN算法,对目标行人的图片进行一系列形变、图片增强等操作后,将其转换到目标行人的数据库候选图片中。WEI等[9]提出行人重识别生成对抗网络,采用场景分割的思想,先确保图片中的目标行人不改变,再将图片所处的背景风格转变为人为所期望的数据库的风格样式,最后进行一系列操作实现重识别。QIAN等[10]提出行人姿态归一化生成对抗网络,利用原始目标行人的图形生成含有同一身份并且姿势可以控制的归一化图像,通过目标行人的姿势迁移解决姿势偏差的问题。但监督学习存在需要利用目标行人图像的数据标签这一不足。因为手动打标签需要消耗很多的人力和时间资源,所以在任务执行过程中存在一定的限制性。
如果说监督学习的本质是告诉计算机怎么做的话,那么无监督学习的本质就是让计算机自己去学习怎么做,因此,无监督学习中常用到的算法有聚类、可视化与降维、关联学习等。在行人再识别中,基于无监督学习[11-13]的方法已经有很多。WU等[11]简化了无监督行人重识别问题,给每个目标行人一张图片作为训练集,通过动态取样的思想为每个身份的行人动态地分配没有标签的候选图片,并利用伪标签对模型进行训练学习。DENG等[12]提出相似性保留生成对抗网络的思想,将目标行人的图片从源域替换到目标域,之后使用有监督的流程训练算法模型。ZHONG等[13]提出异质学习的方法,通过三元组损失函数挖掘信息,对于相同相机域的正样本对和不同域的负样本对进行属性加强,增强相机的不变性和域的联结性。无监督的方法不需要对数据集的数据手动打标签,这样对于数据集的要求就不那么严格,扩大了可用数据集的范围,使得研究工作更具可行性和扩展性。
基于全局[14]的粗粒度特征提取是针对每一个目标行人的每一张完整的图片进行特征提取。全局特征的显著优势是便于训练与处理,能对行人的外观有一个完整全面的表达,不会出现“盲人摸象”的问题。但是又存在明显缺点:对于目标行人的图片缺少细节的特征表示,对于艰难样本难以区分,细节特征的判别性不够。对于行人再识别中的遮挡等问题,基于局部[15]的细粒度特征提取是行人再识别中常用的特征提取方法。在一张图片中,位于不同图像区域的特征包含不同的信息。在各个区域中提取细粒度特征可以更精确地提取到可能被忽略的判别性特征。因为相似的图片中很有可能会存在相似的区域,并且区域之中的相似度远大于行人整体间的相似度,但具有相似区域的行人不代表是相似的行人,所以,提取局部特征可以减小判断2张图片为同一行人的错误率。但是仅仅提取局部特征会造成空间细节特征信息的损失和非完整性。而此时全局特征便于训练,能整体地对行人的外观进行表达,所以,怎样有效地学习具有判别性的粗粒度特征和细粒度特征,在提取特征信息全面的同时又不缺细节,从而提高整个网络算法的判别力精度,是需要研究的问题。
2 本文方法本文提出一种基于无监督学习的粗细粒度特征提取方法。构建一个基于细粒度和粗粒度特征学习的模型框架,如图 3所示,其中包括局部分支和全局分支,分别用于获取细粒度特征和粗粒度特征。首先,得到每个特征图的U个补丁,利用U个CNN对U个补丁分别提取其细粒度特征,从而可以得到U个损失,将其求和平均的结果视为细粒度损失。然后,为每张图片分配不同的簇中心,每个形状代表一张图片,相同的形状代表相似的身份。使用聚类算法将同一个身份的相似的样本逐渐合并,通过联合相斥损失函数和相吸损失函数得到总的粗粒度损失,从而将相似的图像特征拉到一起,将不相似的图像特征推远。
![]() |
Download:
|
图 3 基于粗细粒度特征学习的模型框架 Fig. 3 Model framework based on fine-grained and coarse-grained features learning |
局部分支学习主要是为了指导补丁网络在未标记的数据集上学习细粒度特征。在一般的特征学习中,让同一类的特征在特征空间中更靠近,并且远离其他类,能够学习到更具判别性的特征。因此,补丁网络特征学习的作用是将特征空间中相似的补丁块拉近,同时将不相似的补丁块推远。
在这一过程中,首先需要一个存储体
$ {w}_{i, t}^{u}=\left\{\begin{array}{l}(1-l)\times {w}_{i, t-1}^{u}+l\times {x}_{i, t}^{u}, t > 0\\ {x}_{i, t}^{u}, t=0\end{array}\right. $ | (1) |
其中:t是训练的次数;l是训练更新时的更新率;
基于无监督学习框架,本文使用一种基于补丁块的判别特征损失函数,将相似的特征拉到一起,并推远不相似补丁块,从而学习未标记数据集中的补丁特征。该函数计算公式如下:
$ {L}_{s}^{u}=-\mathrm{l}\mathrm{b}\frac{\sum\limits_{{w}_{j}^{u}\in {k}_{i}^{u}}^{}{\mathrm{e}}^{-\frac{s}{2}\left|\right|{x}_{i}^{u}-{w}_{j}^{u}|{|}_{2}^{2}}}{\sum\limits_{j=1, j\ne i}^{N}{\mathrm{e}}^{-\frac{s}{2}\left|\right|{x}_{i}^{u}-{w}_{j}^{u}|{|}_{2}^{2}}} $ | (2) |
其中:存储体
粗粒度特征学习在全局分支上进行。首先,使用这个和交叉熵损失类似的相斥损失函数来优化卷积模型,将不同人之间的特征差异性扩大。然后,根据一些相同身份的图片的相似性,将含有相似特征的行人图片当作是同一个目标人物,使用一个相吸损失函数来减少同一类内的差异性,并将相同类组合起来当作一个聚类,再由卷积网络算法最大化聚类中心的差异性来更新参数,联合相斥和相吸损失函数进行粗粒度特征学习。最后,通过将属于同一个聚类间的特征向中心聚集,使聚类内部的差异性最小化,增加属于同一个身份的图片的特征相似度,利用特征空间中的结构化信息,根据最小距离准则对数据进行聚类合并。
定义一张图片
$ p\left(c\right|{x}_{i}, V)=\frac{\mathrm{e}\mathrm{x}\mathrm{p}({V}_{c}^{\mathrm{T}}{v}_{i}/\tau )}{\sum\limits_{j=1}^{C}\mathrm{e}\mathrm{x}\mathrm{p}({V}_{j}^{\mathrm{T}}{v}_{i}/\tau )} $ | (3) |
其中:
$ {L}_{\mathrm{r}}=-\mathrm{l}\mathrm{b}\left(p\right(c|x, V)) $ | (4) |
对式(4)进行最小化操作的结果可以从式(3)的分式上明显显示。分母:计算每个图像特征
在此基础上,本文提出在区分聚类中心、放大差异性的同时也可放大相同类间的相似性,将不同摄像头下相差明显但具有同一身份的行人图片聚集在一起。给出对应的相吸损失函数,如式(5)所示:
$ {L}_{\alpha }=\frac{1}{2}\sum\limits_{i=1}^{m}\left|\right|{v}_{i}-{c}_{{y}_{i}}|{|}_{2}^{2} $ | (5) |
其中:
全局分支的粗粒度特征损失函数公式如下:
$ \begin{array}{l}{L}_{\mathrm{g}}={L}_{\mathrm{r}}+\beta {L}_{\mathrm{\alpha }}=\\ {}_{}{}_{}{}_{}{}_{}{}_{}-\sum\limits_{i=1}^{m}\frac{\mathrm{e}\mathrm{x}\mathrm{p}({V}_{c}^{\mathrm{T}}{v}_{i}/\tau )}{\sum\limits_{j=1}^{C}\mathrm{e}\mathrm{x}\mathrm{p}({V}_{j}^{\mathrm{T}}{v}_{i}/\tau )}+\frac{\beta }{2}\sum\limits_{i=1}^{m}\left|\right|{v}_{i}-{c}_{{y}_{i}}|{|}_{2}^{2}\end{array} $ | (6) |
其中:
在聚类不断生成的过程中,需要聚类合并策略的参与,将相似的样本归于同一类,将相异的样本归于不同的类。进行聚类合并的一个关键点在于每次迭代中形成的聚类之间以及它们和样本之间距离的计算。本文对于计算聚类
$ {D}_{\mathrm{d}\mathrm{i}\mathrm{s}\mathrm{t}\mathrm{a}\mathrm{n}\mathrm{c}\mathrm{e}}(A, B)=\underset{{x}_{a}\in A, {x}_{b}\in B}{\mathrm{m}\mathrm{i}\mathrm{n}}d({x}_{a}, {x}_{b}) $ | (7) |
其中:
在每一次的聚类合并过程中,定义
基于以上无标签数据集框架中所使用的粗粒度特征学习损失函数和细粒度特征学习损失函数,最终每张目标行人图片所形成的总的联合损失函数可以表示如下:
$ L=\lambda \frac{1}{U}\sum\limits_{u=1}^{U}{L}_{s}^{u}+{L}_{g} $ | (8) |
其中:U表示一张图片的补丁块的个数;
在Market-1501和DukeMTMC-reID这2个大型数据集上进行实验,使用ResNet-50卷积网络作为整个算法的骨干网络,并使用ImageNet数据库预训练权重来初始化模型。在实验操作中删除了最后一个完全连接层,并将最后一个残差块的步幅设置为1,将参数
在Market-1501和DukeMTMC-reID数据集上进行测试,将本文方法与经典的先进方法进行性能对比,表 1、表 2列出了比较结果。可以看出:在Market-1501数据集上,本文方法Rank-1的性能结果比所有对比方法的最优结果提高了5.76%,平均精度均值(mean Average Precision,mAP)性能结果也提高了3.2%;在DukeMTMC-reID数据集上,Rank-1的性能结果比对比方法的最优结果提高了5.07%,mAP性能结果也提高了5.6%。
![]() |
下载CSV 表 1 在Market-1501数据集上各算法的性能比较 Table 1 Performance comparison of each algorithm on Market-1501 dataset |
![]() |
下载CSV 表 2 在DukeMTMC-reID数据集上各算法的性能比较 Table 2 Performance comparison of each algorithm on DukeMTMC-reID dataset |
1)与基于手工特征表示模型的对比
与局部最大出现率(LOMO)[16]、无监督多任务词典学习词袋(Bow)[17]、无监督多任务字典学习(UMDL)[18]等手工特征方法相比,本文方法具有性能优势,这是因为对手工特征的研究是在Re-ID研究的早期开始的,在大部分早期研究中没有太多可参考的学习方法,因此难以学习出色的区分特征。
2)与基于深度学习特征表示模型的对比
(1)伪标签学习。与跨视图非对称度量学习(CAMEL)[19]、渐进无监督学习(PUL)[20]等基于无监督模型的伪标签学习方法相比,本文方法具有性能优势。这是因为对比方法通过比较视觉特征直接分配伪造标签,并且忽略了潜在的歧视性信息,从而导致效果不理想。
(2)无监督域适应。与行人再识别的生成对抗网络GAN(PTGAN)[9]、可转移的属性身份深度学习(TJ-AIDL)[21]、保持相似性的对抗网络(SPGAN)[12]、多任务中级特征对齐(MMFA)[22]、CamStyle[23]、异质学习(HHL)[13]、多标签参考学习(MAR)[24]等基于无监督域自适应的方法相比,本文方法具有性能优势。这是因为多数对比方法都仅仅考虑了源域中有判别性的特征信息,而忽视了在未标记的目标域中的具有有效判别性的潜在信息,并且源域中有判别性的特征信息会随着数据集的改变而有很大不同,所以在目标集中减少其本身的有效性与多样性。同时,由于图像块之间的相似度必定比图像的相似度大,因此本文方法的局部分支基于图像块来学习特征比基于图像的效果好。
3.3 进一步分析 3.3.1 全局分支中相吸损失函数分析对全局分支中有无相吸损失函数的模型进行对比实验,结果如表 3所示,可以看出,相吸损失函数在2个数据集上对整体算法性能都有很大的提升作用。
![]() |
下载CSV 表 3 无标签数据集中有无相吸损失函数的对比结果 Table 3 Comparison results whether or not have attracted loss on the unlabeled datasets |
为更直观地验证相吸损失的效果,进行可视化效果展示,如图 4所示。在此分支中,如果没有相吸损失函数,那么在特征空间中的学习过程中就会有一个较大的类内差异的情况出现。相反,加入相吸损失函数就会将聚类中心聚拢。同时学习每个聚类中心,即可显著提升深度特征的判别力,来增加每个身份的相似性。
![]() |
Download:
|
图 4 有无相吸损失的可视化效果对比 Fig. 4 Visual effect comparison of whether or not have attracted loss |
从表 4可以看出,加入细粒度损失函数之后,在2个数据集上,性能结果都好于未使用的时候,主要原因是该损失函数可以为模型提供有效的指导,其可视化展示如图 5所示,当没有细粒度损失函数时在Rank-5时,由于衣物与鞋子的相似度就误以为是目标行人,忽略了背包的差异性,导致识别错误,因此对于每一张行人图片,位于不同图像区域的特征具有不同的信息,使用不同的网络分支去细化的学习未标记数据集上不同的局部人体的补丁特征,可以更精确地提取到可能被忽略的特征,最终能够得到对行人不同的局部特征更有判别力的模型。
![]() |
下载CSV 表 4 无标签数据集中有无细粒度损失函数对比结果 Table 4 Comparison results whether or not have fine-grained loss on the unlabeled datasets |
![]() |
Download:
|
图 5 有无细粒度损失的可视化对比 Fig. 5 Visual comparison of whether or not have fine-grain loss |
观察3种常见的聚类合并准则,通过比较在Market-1501数据集中的结果选择最小距离准则,如表 5所示。当使用最小距离准则时,Rank-1准确率最高,其次是中心距离准则,最低的则是最大距离准则。因为数据集有不同的摄像头的图片,而在不同的摄像头下,相同的人的不同图片会有较大的外表特征的差异,所以,使用最大距离准则会放大差异性,导致不能合并来自不同摄像头下的同一人的图片。
![]() |
下载CSV 表 5 3种常见的聚类合并准则在Market-1501数据集上的结果 Table 5 Results of three common clustering and merging criterias on the Market-1501 dataset |
在全局分支上,联合相斥和相吸2个损失函数,相斥损失放大不同身份的样本之间的差异性,相吸损失拉近相同身份之间的相似性。如图 6、图 7所示,评测准则Rank-1和mAP直到
![]() |
Download:
|
图 6 参数 |
![]() |
Download:
|
图 7 参数 |
总损失中参数
![]() |
Download:
|
图 8 权重 |
![]() |
Download:
|
图 9 权重 |
本文提出的行人再识别无监督学习框架,通过基于相斥和相吸的特征学习联合损失指导未标记数据集中的粗粒度特征学习,使用最小距离准则增加不同相机下同一目标行人之间的相似性,并从全局和局部2个方向学习判别性特征,提高算法模型的性能。下一步将对判别特征与损失函数进行优化,提取出全面且极具判别性的特征,同时对损失函数加以改进,使算法模型能够较好地达到收敛状态,减小模型数据结果的误差,从而提高整个网络算法的判别精度。
[1] |
李幼蛟, 卓力, 张菁, 等. 行人再识别技术综述[J]. 自动化学报, 2018, 44(9): 1554-1568. LI Y J, ZHOU L, ZHANG J, et al. A survey of person re-identification[J]. Acta Automatica Sinica, 2018, 44(9): 1554-1568. (in Chinese) |
[2] |
JIN X, LAN C, ZENG W, et al. Style normalization and restitution for generalizable person re-identification[C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2020: 3140-3149. https://ieeexplore.ieee.org/document/9157711
|
[3] |
ZHANG Z, LAN C, ZENG W, et al. Relation-aware global attention for person re-identification[C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2020: 3183-3192. https://ieeexplore.ieee.org/document/9157488
|
[4] |
CHEN X, FU C, ZHAO Y, et al. Salience-guided cascaded suppression network for person re-identification[C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2020: 3297-3307. https://ieeexplore.ieee.org/document/9156982
|
[5] |
ZHAO S, GAO C, ZHANG J, et al. Do not disturb me: person re-identification under the interference of other pedestrians[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2020: 647-663. https://link.springer.com/chapter/10.1007/978-3-030-58539-6_39
|
[6] |
FU Y, WEI Y, WANG G, et al. Self-similarity grouping: a simple unsupervised cross domain adaptation approach for person re-identification[C]//Proceedings of 2019 IEEE/CVF International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2019: 6111-6120. https://ieeexplore.ieee.org/document/9008293
|
[7] |
YAN Y, QIN J, CHEN J, et al. Learning multi-granular hypergraphs for video-based person re-identification[C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2020: 2896-2905. https://ieeexplore.ieee.org/document/9156659
|
[8] |
ZHU J Y, PARK T, ISOLA P, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]//Proceedings of 2017 IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2017: 2242-2251. https://ieeexplore.ieee.org/document/8237506
|
[9] |
WEI L, ZHANG S, GAO W, et al. Person transfer GAN to bridge domain gap for person re-identification[C]//Proceedings of 2018 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 79-88. https://ieeexplore.ieee.org/document/8578114
|
[10] |
QIAN X, FU Y, XIANG T, et al. Pose-normalized image generation for person re-identification[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2018: 650-667. https://link.springer.com/chapter/10.1007/978-3-030-01240-3_40
|
[11] |
WU Y, LIN Y, DONG X, et al. Progressive learning for person re-identification with one example[J]. IEEE Transactions on Image Processing, 2019, 28: 2872-2881. DOI:10.1109/TIP.2019.2891895 |
[12] |
DENG W, ZHENG L, YE Q, et al. Image-image domain adaptation with preserved self-similarity and domain-dissimilarity for person re-identification[C]//Proceedings of 2018 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 994-1003. https://ieeexplore.ieee.org/document/8578208
|
[13] |
ZHONG Z, ZHENG L, LI S, et al. Generalizing a person retrieval model hetero- and homogeneously[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2018: 176-192. https://link.springer.com/chapter/10.1007/978-3-030-01261-8_11
|
[14] |
李佳宾, 李学伟, 刘宏哲, 等. 基于局部特征关联与全局注意力机制的行人重识别[J]. 计算机工程, 2022, 48(1): 245-252. LI J B, LI X W, LIU H Z, et al. Person re-identification based on local feature relation and global attention mechanism[J]. Computer Engineering, 2022, 48(1): 245-252. (in Chinese) |
[15] |
库浩华, 周萍, 蔡晓东, 等. 基于区域特征对齐与k倒排编码的行人再识别方法[J]. 计算机工程, 2019, 45(3): 207-211. KU H H, ZHOU P, CAI X D, et al. Person re-identification method based on regional feature alignment and k-reciprocal encoding[J]. Computer Engineering, 2019, 45(3): 207-211. (in Chinese) |
[16] |
LIAO S, HU Y, ZHU X, et al. Person re-identification by local maximal occurrence representation and metric learning[C]//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2015: 2197-2206. https://ieeexplore.ieee.org/document/7298832
|
[17] |
ZHENG L, SHEN L, TIAN L, et al. Scalable person re-identification: a benchmark[C]//Proceedings of 2015 IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2015: 1116-1124. https://ieeexplore.ieee.org/document/7410490
|
[18] |
PENG P, XIANG T, WANG Y, et al. Unsupervised cross-dataset transfer learning for person re-identification[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 1306-1315. https://ieeexplore.ieee.org/document/7780515
|
[19] |
YU H X, WU A, ZHENG W S. Cross-view asymmetric metric learning for unsupervised person re-identification[C]//Proceedings of ICCV'17. Washington D.C., USA: IEEE Press, 2017: 994-1002. https://ieeexplore.ieee.org/document/8237375
|
[20] |
FAN H, ZHENG L, YAN C, et al. Unsupervised person re-identification: clustering and fine-tuning[EB/OL]. (2017-06-29)[2021-01-02]. https://arxiv.org/pdf/1705.10444v2.pdf.
|
[21] |
WANG J, ZHU X, GONG S, et al. Transferable joint attribute-identity deep learning for unsupervised person re-identification[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 2275-2284. https://ieeexplore.ieee.org/document/8578340
|
[22] |
LIN S, LI H, LI C T, et al. Multi-task mid-level feature alignment network for unsupervised cross-dataset person re-identification[EB/OL]. (2018-07-11)[2021-01-02]. https://arxiv.org/pdf/1807.01440.pdf.
|
[23] |
ZHONG Z, ZHENG L, ZHENG Z D, et al. CamStyle: a novel data augmentation method for person re-identification[J]. IEEE Transactions on Image Processing, 2019, 28(3): 1176-1190. |
[24] |
YU H X, ZHENG W S, WU A C, et al. Unsupervised person re-identification by soft multilabel learning[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2019: 2143-2152. https://ieeexplore.ieee.org/document/8953980
|