摘要
为了防止无人机威胁公共安全,反无人机目标跟踪已成为工业和军事应用中的关键问题。然而,由于场景复杂且目标通常较小,因此稳定地跟踪无人机目标仍然是一个具有挑战性的问题。在本文中,提出了一种由Siamese网络和重新检测(SiamAD)组成的新型长期跟踪架构,以有效地在不同环境中定位无人机目标。具体来说,利用一种新的混合注意力机制模块来进行更具区分性的特征表示,并将其整合到连体网络中。同时,基于注意力的连体网络融合了多级特征,以准确跟踪目标。我们进一步引入了用于检查目标可靠性的分层鉴别器,并使用基于鉴别器的重新检测网络来纠正跟踪失败。为了有效地赶上无人机的外观变化,在长期跟踪任务中开发了模板更新策略。我们的模型在反无人机基准测试中超越了许多最先进的模型。特别是,与强基线SiamRPN++相比,该方法在成功率和准确率上分别提高了13.7%和16.5%。
一、简介
由于高效和低成本的显着优势,无人机在军事、交通、物流和安全等各种应用中获得了新的关注。然而,无人机的非法和无规范使用也带来了扰民民航、侵犯隐私等诸多潜在危害,可能对公共安全造成极大威胁。此外,很难对无人机进行有效和严格的监管。这种安全威胁使得反无人机系统成为必要。
目标跟踪是构建反无人机系统的前提。使用计算机视觉算法是监控无人机的一种现实解决方案,因为视频图像信号敏感、准确且抗干扰。具体来说,视觉跟踪是计算机视觉的基本任务之一。给定第一帧中对象的初始模板,跟踪的目标是准确识别和定位连续帧中的对象。在无人机视觉目标跟踪的情况下,视频场景复杂多变,要跟踪的目标小且外观不明显。这导致跟踪器面临许多挑战,例如变形、遮挡、目标移出视野和快速运动。因此,准确跟踪无人机目标是一个必须解决的具有挑战性的问题。
根据无人机视频的特点,反无人机跟踪可视为一项长期跟踪任务。从长远来看,最重要的特征是跟踪序列中的目标可以被完全遮挡或超出视野。近年来,已经进行了许多尝试来提高无人机场景中的性能。基于相关滤波(CF)或深度学习(DL)的传统跟踪方法已被广泛使用。然而,模型学习能力不足或实时性受限等不足限制了这些方法的应用。
最近,基于连体网络的跟踪器取得了重大进展,将对象跟踪视为匹配问题。Siamese网络的核心思想是学习目标模板和搜索区域之间的一般相似性映射。这样,跟踪问题就可以转化为搜索区域和目标的相似度计算。Siamese trackers通常采用端到端训练的全卷积网络,在准确度和实时性上都取得了突出的表现。SiamFC是一项开创性的工作,于2016年提出并达到了58 fps的高帧率。CFNet集成了相关过滤(CF)和Siamese网络,其中相关过滤被构建为子网络层。暹罗RPN介绍了基于SiamFC的区域提议网络(RPN)。然而,基于连体的模型是完全离线训练的,模板不能在线更新,这让他们很难赶上外观变化。此外,尽管研究人员提出了许多模板建立和更新的方法,但这些方法仅基于目标生成特征图。正负样本之间的上下文信息被完全丢弃,而一些背景特征有利于将目标与类似干扰区分开来。即使是现在,在实际跟踪场景中实现高质量的性能仍然具有挑战性。
长期跟踪是一项更复杂的任务。当对象被严重遮挡甚至看不见时,跟踪结果可能会退化为不可靠。因此,在这种情况下,检测跟踪和重新检测方法变得必不可少。在设计重新检测方法时有两个关键问题:如何评估跟踪结果的可靠性以及何时选择更好的结果来代替原来的结果。许多长期跟踪器将相关滤波与图像检测方法相结合,并根据CF生成的响应图直接构建跟踪可靠性的评估标准。以前, 提出了一种使用基于连体网络的全局搜索策略的检测模块。上述长期跟踪方法在实际应用中更加稳健。然而,在每一帧进行检测是一项相当昂贵的操作。准确识别跟踪器是否出现故障是一个至关重要的问题;这决定了检测算法是否可以正确激活。目前,许多方法仅基于具有手工特征的相关滤波器设计可靠性估计,未能充分利用深度学习在特征表示能力方面的优势。
受上述分析的启发,提出了一种由Siamese网络和配置了混合注意力机制和分层判别器的重新检测模块组成的反无人机长期目标跟踪方法。具体来说,混合注意力模块被训练以增强连体网络的特征学习能力,以生成更具辨别力的对象表示。此外,为了解决长期跟踪中无人机目标的重新定位和模板更新问题,我们利用层次判别器根据连体网络的输出生成目标定位的响应图,并制定可靠性标准评估响应图的可信度。当输出结果表明置信度低时,算法激活重新检测模块并更新模板。
这项工作的主要贡献总结如下:
(1) 引入多重混合注意力机制(MHAM)来联合计算通道-空间注意力和自注意力,不仅可以增强相互依赖的通道特征和空间特征,而且可以捕获目标和目标之间丰富的上下文相互依赖关系无人机跟踪任务的背景。
(2)采用层次判别器(HDC)来估计跟踪和重检测结果的可信度,并作为检测器和模板更新的触发器。我们应用检测器和更新器来构建一个模块化框架来处理定位和漂移跟踪失败。
(3) 所提出的方法在反无人机基准上优于最先进的方法。与 SiamRPN++相比,我们的框架实现了13.7% 的距离精度和16.5%的重叠精度,并实现了对其他SOTA跟踪器的性能提升(超过5%)。
二、相关工作
在本节中,我们将简要讨论一些经典的相关方法,包括相关跟踪、基于连体的跟踪和长期跟踪。
2.1相关性跟踪
近年来,目标跟踪逐渐成为计算机视觉领域的热门话题,随着目标跟踪技术的发展,相关滤波和Siamese网络受到广泛关注。基于相关滤波器的方法通过将时域下的复杂计算转换为频域来显着降低计算复杂度。将相关滤波器引入到目标跟踪算法中,并首次提出了MOSSE。提出CSK用循环采样代替密集采样,并通过对循环移位矩阵的傅里叶变换进行对角化,提高了岭回归运算的速度。通过将单通道CSK跟踪器扩展到多个通道来利用KCF。
然而,传统的基于相关滤波器的方法主要采用手工制作的特征,这将它们的性能限制在更广泛的应用中。鉴于深度神经网络的高效特征表示能力,融合深度学习和相关滤波器引起了越来越多的关注。但是,在复杂场景下,它们仍然存在精度低或速度慢的问题。
2.2基于连体的跟踪
在过去的几年里,由于其卓越的精度和速度,许多作品开始关注基于连体的追踪器。提出了SimFC,它采用了互相关到一个完全卷积的Siamese网络,并且该网络是端到端训练的,并且能够实时推理。在模板分支中引入了相关过滤层,并针对翻译生成了一个鲁棒的特征图。受Faster R-CNN的启发,通过将RPN模块应用于对象跟踪任务来展示SiamRPN。暹罗RPN将单目标跟踪视为一次性检测。与SiamFC相比,它避免了多尺度特征图的重复计算,显着提高了尺度估计精度。在SiamRPN的基础上提出了DaSiamRPN,通过数据增强来改善正负样本之间的不平衡。实验结果表明,长期跟踪有明显改善。为了突破浅层骨干网络的限制,SiamDW和SiamRPN++采用了更深的特征提取网络(ResNet50)。受到SiamRPN++成功的鼓舞,许多先进的模型被提出。暹罗利用了无锚连体网络。SiamMask将图像分割引入基于连体的跟踪器。然而,对于连体模型,跟踪模板更新对于避免被干扰干扰是决定性的。最近的模型已经开发出各种模板更新策略来解决由目标外观变化引起的问题。常见的解决方案是使用历史跟踪结果进行加权融合。然而,对于连体跟踪器,在具有挑战性的现实场景中仍然无法获得高质量的性能。
2.3长期跟踪
长期跟踪是指在相对较长的视频序列中连续定位任意目标的任务。由于目标可能会暂时消失,关键问题是在一段时间不存在或跟踪失败后检索目标。因此,长期跟踪在实际应用中具有更大的潜力。TLD将任务分解为三个阶段:跟踪、学习和检测。在跟踪失败时,检测模块被激活以重新定位丢失的目标。MUSTer由短期和长期记忆子网组成。具体来说,利用集成相关滤波器作为短期跟踪器,并采用长期存储来控制短期记忆。然而,必须缺乏跟踪状态可靠性的评估机制,每帧触发重新检测。LCT训练了一个基于DCF的跟踪器来估计目标位置和规模的变化,并提出了一个在线随机蕨类植物检测器来重新检测丢失的目标。开发了一种基于DCF的长期跟踪方法,该方法由检测跟踪和重新检测模块组成。
随着深度学习的快速发展,许多基于深度学习的长期跟踪器被提出。SPLT和MBMD采用基于连体的跟踪器作为回归网络。LTMU提出了一种结合SiamMASK和MDNet的短期跟踪器,并将跟踪结果的序列信息输入长短期记忆(LSTM)以决定是否重新检测或更新。受到SiamRPN框架、GlobalTrack的启发采用全局搜索策略进行长期跟踪。然而,长期反无人机跟踪器的模型更新策略和重新检测方法仍然相对简单。同时,很少有工作专注于固定注意力分布以获得更强大的语义特征。在这项工作中,我们提出了一种混合注意力机制来进行更具区分性的特征表示。基于SiamRPN提出了分层判别器,用于长期跟踪任务中的重新检测和模板更新。
三、实验
3.1基准
作为动态环境中的高质量基准,反无人机数据集是在CVPR 2020的第一届反无人机挑战国际研讨会上提出的。它由300多个视频对(RGB和红外)组成,并标注了超过580k的边界框,跨越了多次出现的多尺度无人机(即大型、 small and tiny),主要来自DJI和Parrot,以保证数据的多样性。总共有318个视频对,其中160个被划分为训练集,91个被分配给测试集,其余的被用作验证集。录制的视频包括两种光照条件(白天和夜晚),两种光照模式(红外和可见光),以及不同的背景(建筑物、云层、树木等);当天拍摄的视频片段较多。每个视频都存储在一个帧速率为25 FPS的MP4文件中。具体来说,反无人机设置了一系列挑战,包括视野外、遮挡、快速运动、尺度变化、低照度、热交叉和低分辨率。Anti-UAV是第一个构建的用于捕捉社区真实动态场景的反无人机基准。越来越多的工作开始在具有挑战性的数据集上执行。
3.2. 实施细节
在训练阶段,SiamRPN和YOLOv5网络进行离线训练。在训练SiamRPN时,采用三阶段学习策略。Siamese网络首先在YouTube-BoundingBoxes、ImageNet VID、ImageNet和COCO数据集上进行了预训练。然后固定主干的参数,并在基础结构中引入混合注意力模块。接下来,通过Anti-UAV重新训练混合注意力模块和RPN训练子集。最后,整个网络在Anti-UAV 上进行端到端训练以优化参数。在YOLOv5的训练阶段,只采用反无人机训练集,因为检测算法只需要区分前景和背景。该网络通过随机梯度下降法(SGD)进行训练。所提出的算法在反无人机测试子集上进行评估,该子集包含91个RGB视频。我们的算法与最近的9个SOTA跟踪器进行了比较:MDNet、SiamDW、SiamFC、SiamRPN、SiamRPN++、TransT、SiamCAR、SiamRPN++LT和CLNet。引入了两个指标来评估所有方法的性能:20像素阈值处的距离精度(DP)、成功图的曲线下面积(AUC)。精度图中的分数被定义为中心位置误差小于预定义阈值的帧的百分比。同时,成功图中的分数表示跟踪区域和边界帧的重叠率大于阈值的帧的百分比。在训练和测试阶段,我们使用127像素的相同大小的补丁作为模板,使用255像素的补丁作为搜索区域。至于可靠性鉴别器,○s设置为0.8和○一个设置为0.35。所提出的框架在Pytorch中实现,并在NVIDIA GTX 3090 GPU上进行了实验。
3.3与SOTA跟踪器的比较
我们利用One-Pass-Evaluation (OPE)来评估我们的反无人机长期跟踪框架的有效性,并在反无人机基准上与其他SOTA跟踪器进行比较。成功图和距离精度图的结果如图8所示。其阈值为20像素的距离精度(DP)、阈值为0.5的重叠精度(OP)如表1所示。在这些跟踪器中,我们的SiamAD在AUC(67.7%)和DP(88.4%)方面取得了最好的结果。与第二名的 SiamRPN++LT相比,SiamAD在AUC和DP上分别提高了7.3%和9.0%。此外,与基线SiamRPN++,我们的跟踪器也取得了显着的改进,成功率相对提高了13.7%,准确率相对提高了16.5%。值得注意的是,SiamAD 的速度达到了38.8 FPS,以满足实时跟踪要求。这些结果表明,所提出的多尺度特征提取网络、混合注意力模块和分层鉴别器可以协同工作以实现高效和准确的无人机目标跟踪能力。

图8. OPE在反无人机上的成功和精度图。图表显示了我们的算法与其他SOTA跟踪器的比较。

表1. 我们的方法与其他SOTA跟踪器在反无人机基准上的性能比较测试。我们的SiamAD实现了最高的成功率和准确率。前三个值以红色、绿色和蓝色突出显示。
同时,我们可以发现长期跟踪者更有可能获得更高的能力。SiamRPN++LT表现出色,OP为78.8%,准确率为79.4%,明显高于短时跟踪器。总之,我们认为基于长期跟踪或检测的跟踪器在无人机跟踪任务中更具竞争力。
3.4基于属性的评估
为了全面分析不同挑战因素下的跟踪性能,进行了基于属性的评估。Anti-UAV为每个视频提供属性注释,以帮助识别跟踪器在处理各种困难时的优缺点。这些注释包括视野外(OV)、遮挡(OC)、快速运动(FM)、尺度变化(SV)、低照度(LI)、热交叉(TC)和低分辨率(LR)。在测试集中,OV和FM频繁出现,也是无人机跟踪过程中的难点任务。
图9说明了不同挑战因素下的跟踪成功率和准确率。正如我们所观察到的,SiamAD在OV、SV和FM中的表现比其他跟踪器要好得多。在视野外的情况下,我们提出的方法优于 SiamRPN++LT,AUC 提高了5.2%,DP提高了4.0%。在尺度变化的情况下,与TransT相比,SiamAD在AUC和DP中实现了8.2%的相对增益和7.2%。性能显着提升的原因可以总结为两个方面:一方面,基于YOLO的单类重检测模块对识别出的目标具有较高的检测能力,在目标丢失后能够准确地重新定位;另一方面,基于UDC的目标模板更新方法可以显着提高跟踪网络的精度。SiamAD还在OC和LR方面提供出色的性能。由于混合注意力模块,增强了模型表达特征和抗干扰的能力。因此,跟踪器可以更有效地处理复杂环境和无人机外观变化带来的困难。

图9. Anti-UAV基准的基于属性的评估。成功和精度图显示了六个具有挑战性的因素。
得到触发重新检测的次数,并记录在表2中。在测试过程中,重新检测模块的激活率为9.2%。一般来说,在处理挑战因素时,重新检测被激活的概率会增加,尤其是当无人机难以观察时(LR、OV和OC)。这说明了响应丢失对象进行检测的必要性。

表2. 触发重新检测的次数。
3.5定性分析
所提出的方法与五个最先进的跟踪器 MDNet、SiamRPN++LT、SiamCAR、TransT和CLNet进行了定性比较。图10显示了来自反无人机基准测试的八个具有挑战性的视频的结果。

图10. SiamAD、MDNet、CLNet、SiamCARSiamRPN++LT和 TransT在八个具有挑战性的序列上的定性评估。我们将这些视频从上到下分别命名为:UAV-OC、UAV-OV1、UAV-OV2、UAV-FM1、UAV-FM2、UAV-LR、UAV-SV1 和 UAV-SV2(经Ref许可转载。)
遮挡(OC)。由于环境复杂多变,再加上无人机体积小,无人机物体容易长时间被建筑物或植被遮挡。在UAV-OC序列中,对象在第224-262帧中完全被遮挡。当无人机再次出现时,TransT和SiamAD首先定位它。尽管CLNet也可以捕获目标,但由于模型不更新,定位精度明显低于其他方法。SiamRPN++LT是一个长期跟踪器,依赖于预训练网络的鲁棒性来重新检测对象。目标丢失后,跟踪器可以快速重新锁定目标。在第753帧的第二次遮挡之后,只有SiamAD和SiamRPN++LT能够再次捕获目标。
视野外和快速运动(OV & FM)。OV是无人机跟踪任务中最具挑战性的因素之一,并且方法要求在物体再次出现时迅速检测到它。OV存在于UAV-OV1、UAV-OV2和UAV-FM2序列中。UAV-OV1一开始,目标就在视野之外。这意味着跟踪器无法访问目标在初始帧中的位置和外观。因此,几乎所有基于生成模型的方法(SiamCAR、TransT和CLNet无法跟踪。但是,依靠模板更新机制和重新检测模块,SiamAD可以逐步找到目标。在UAV-OV2和UAV-FM2序列中,目标离开视野并在最后重新出现。这是跟踪无人机时的典型案例。同样,只有SiamRPN++LT和SiamAD可以重新定位无人机。
为了在物体加速时捕捉到物体,应该应用更大的搜索区域。然而,这可能会增加引入干扰信号的风险。在UAV-OV2和UAV-FM2序列中,无人机的运动和摄像机的旋转相互叠加,这样一种复杂的运动会导致目标在两个相邻帧之间移动超过60像素的显着距离. 目标与背景重叠并突然变化。在UAV-FM1、SiamRPN++和 SiamCAR由于来自相似背景的干扰,他们首先失去了他们的目标。虽然 MDNet 采用在线更新策略来调整网络参数,但错误特征的引入仍然导致定位出现偏差。结合混合注意力机制和特征融合方法,SiamAD和TransT有效抑制冗余信息,增强特征表示的判别能力。这使得跟踪器能够在快速变化的背景中抵抗类似干扰的影响,有效地提高跟踪精度。
低分辨率(LR)。UAV-LR在低能见度条件下展示了无人机跟踪结果。该视频的主要挑战是低分辨率和低信噪比。由于在线更新期间引入了噪声, MDNet效率较低。在一些简单的场景中,低分辨率对跟踪结果的影响是容易克服的。然而,当与背景杂波结合时,跟踪边界框很容易漂移到目标附近的类似干扰。TransT和SiamCAR等跟踪器在这种情况下很难获得准确的目标表示,这使得跟踪结果偏离了背景。例如,暹罗汽车可以间歇性地重新定位到无人机,但由于外观变化,很快又失去了目标。SiamAD 利用重检测机制来解决边界框的漂移问题。同时,引入高置信度的模板更新策略可以有效避免模板被污染。
尺度变化(SV)。在没有其他挑战属性的情况下,本文测试的算法都很好地适应了无人机的尺度变化。基于 RPN的SiamCAR和SiamRPN++等算法都表现出良好的目标尺度估计自适应感知。
如上所述,建议的SiamAD在上述视频中表现良好。其主要成就可以从以下三个方面来概括:
(1)虽然大多数跟踪器在处理严重遮挡或视线外等挑战时容易出现故障;SiamAD仍然取得了良好的跟踪结果,这得益于YOLO网络对跟踪可靠性的准确判断和可靠的重新检测结果。
(2)我们的SiamAD在处理背景和外观变化的干扰方面是有效的。这是因为我们引入了基于深度连体网络的注意力机制和多尺度特征融合。从网络中提取的特征图可以表示丰富的语义信息,增强模型的可辨别性。
(3)重检测模块为算法更新提供了高质量的模板,SiamAD利用所有可靠的特征生成一个信息丰富的鲁棒模板。因此,我们提出的方法可以自适应地适应环境的变化,提高复杂场景中的跟踪性能。
3.6消融研究
为了定量评估我们SiamAD的每个组件的有效性,我们对具有各种组件的Anti-UAV进行了多次实验。如表3所示,与原始基础跟踪器相比,配备注意机制或重新检测的跟踪器显着增强了性能。引入在线更新也有助于改进模型。在以下段落中,我们将详细描述每个部分的影响。

表3. 我们的反无人机基准方法在成功和精度方面的消融研究。最高值以粗体突出显示。
混合注意力模块。我们在Siamese网络中引入了两个注意力模块,即CSAM和CAM。基于SiamRPN++,我们逐步引入我们的注意力模块,并在反无人机测试集上对其进行验证。如表4所示,同时包含CSAM和CAM的模型实现了最佳的跟踪性能。此外,我们发现CAM的引入在跟踪成功率和准确率方面有显着提高,分别提高了3.0%和4.8%。这说明对象的前景和背景之间的关联信息有助于增强特征的表示。CSAM的成功率和准确率也分别提高了2.5%和2.6%,这也提高了跟踪性能。

表4. 我们的方法在Anti-UAV基准上使用不同注意力模块的性能比较测试。最佳值以粗体突出显示。

如图11所示,使用我们的MHAM模块,网络的响应图更准确地聚焦在无人机对象上。MHAM可以有效筛选目标特征,增强网络区分对象和干扰物的能力。
图11. 响应图的可视化。第一栏:搜索图片;第二列:没有我们的MHAM模块的响应图;第三列:带有MHAM模块的响应图;第四列:注意力激活图,说明感兴趣的区域。
用于重新检测的可靠性鉴别器。为了证明重新检测机制在我们的框架中的影响,我们进行了一项消融研究,我们比较了有和没有重新检测网络的跟踪结果,实验数据如表 3所示。请注意,实验是使用结合了注意力模块的连体网络进行的。结果表明,当与重新检测网络结合使用时,AUC 增加了7.8%,DP 增加了9.8%——跟踪有效性的显着提高。此外,我们验证了可靠性判别器参数设置的影响。小号p(式(11))和APCE(式(12))被用作跟踪结果置信度的评价指标,然后我们选择不同的系数组合○s和○一个(式(15)),如表5所示。我们发现这些系数的大值有利于跟踪精度,但在实践中,实时性能会变差。此外,当我们为所有视频设置相同的阈值时,该模型的性能并不是最佳的。我们解释说,根据视频的特性自适应调整阈值更有利于充分利用重新检测模块的能力。

表5重检测性能评价 使用不同的阈值来验证影响。最高值以粗体突出显示。
为了进一步演示重新检测模块如何在我们的跟踪器上工作,我们从 Anti-UAV 中选择了两个典型的视频进行比较实验,即 SiamRPN++和我们的 SiamAD。我们将这两个视频分别命名为UAV-VIDEO1和UAV-VIDEO2,结果如图12所示。

图12. 再检测模块在 Anti-UAV 基准上的跟踪结果。红色边界框表示配置了重新检测模块的 SiamAD 的跟踪结果,而白色边界框表示没有重新检测的跟踪器的结果。
(1)在UAV-VIDEO1中,UAV 对象受到背景建筑物的干扰。SiamRPN++无法跟踪目标,因为背景和目标的颜色难以区分。但是,我们的重新检测模块不受干扰源的影响,并且能够正确定位该视频中的目标。
(2)在UAV-VIDEO2中,无人机目标被严重遮挡;两个跟踪器同时失去目标。当目标再次出现时,SiamRPN++无法立即捕获目标,但重新检测模块可以快速识别并重新锁定无人机。
更新模板更新的鉴别器。表6显示了不同模板更新策略的性能,以说明它们如何影响输出。我们比较了三种设置:不更新模板、直接从重新检测生成新模板以及使用第 3.4 节中提到的模板更新方法。从表 3中可以看出,模板更新在提高跟踪精度方面发挥着重要作用。而且,与直接应用重检测结果相比,所提出的模板更新策略保留了对象的历史信息,生成的模板更加健壮。

表6. 不同模板更新策略的性能评估。最高值以粗体突出显示。
3.7. 无人机跟踪视频的测试与分析
为了定量评估 SiamAD 在真实无人机跟踪场景中的有效性,基于实际 UVA 视频对该算法进行了更多的性能测试。为了保证实验的准确性,采集了各种规格无人机在不同应用场景下的视频。大部分测试数据为直播视频,分辨率为1920×1280,帧率为30fps,拍摄距离约为200mm。我们提出的算法的跟踪能力仍然可以在实际测试环境中得到证明,部分跟踪结果如图13所示。

图13. SiamAD 应用在真实场景中的跟踪结果。
序列3和序列5展示了一架无人机在不断变化的背景中。目标快速移动,图像特征模糊,存在背景干扰。测试结果表明,SiamAD 能够在复杂多变的背景中检测目标,并且在实际应用中还具有抗干扰能力。在序列5中,无人机的高速运动导致跟踪器频繁丢失目标。但是,重新检测模块的全局搜索可以弥补跟踪算法的失败。我们的 SiamAD 可以很好地处理对象尺度变化(序列 2,序列7),还可以跟踪小目标(序列4)),这得益于 RPN 对边界框的准确估计。在测试过程中,存在无人机被严重遮挡或离开视野的情况(序列7、序列8),但SiamAD在物体重新出现后可以准确识别整个目标。
对一些图像样本进行了注释,并创建了一个小型自制测试集。OPE 方法用于评估 SiamAD 的准确性。成功图和距离精度图的结果如图 14 所示。在这个测试集上,我们的 SiamAD 达到了56.5%的AUC分数和 79.2% 的 DP 分数。这证明该方法在处理更具挑战性的跟踪条件时仍能保持良好的成功率和准确率。与第 4.3 节中的测试结果相比,算法在自制测试集上的性能降低。这主要是由于两个因素。首先,与Anti-UAV相比,我们视频的场景更加多样化,无人机的运动和外观变化更加剧烈。这使得所提出算法的挑战更加困难。此外,重新检测模块是在固定数据集上训练的;自制测试集视频和Anti-UAV训练集的分布差异很大。结果,导致基于全局搜索策略的检测算法的性能下降。
四、结论
在本文中,提出了一种反无人机的长期跟踪框架。我们的方法是基于连体跟踪器和重新检测网络开发的,并配备了两个增强组件:一个混合注意模块,通过三个串联-并行注意子网提高注意分布拟合度,以及一个分层鉴别器,采用灵活的双阈值策略重新检测并精确更新当前模板。此外,利用模板更新策略来进一步提高跟踪精度。拟议的工作在反无人机基准测试中优于许多最先进的跟踪器。我们已经证明了我们提出的模块的有效性,实验结果定性地证明了每个组件都有利于性能提升。
所提出的反无人机跟踪方法一般由跟踪器、判别器、重新检测模块和更新模块组成,以使跟踪器在各种具有挑战性的情况下都能保持出色的性能。此外,该算法在实际场景中对无人机的跟踪能力也非常出色。未来,现有框架可以进行如下优化。首先,可以细化重检测模块的搜索策略,融合检测和跟踪网络,实现网络参数共享,使我们的方法更加高效。此外,由于本文没有考虑无人机的运动信息;可以建立基于时空相关性的动态模型来提高跟踪方法的鲁棒性。最后,本文目前的研究很少关注LSS-target(Low Altitude,Slow Speed,Small Target)。从实际角度看,有必要针对低空小目标跟踪问题对网络进行优化。我们希望我们的工作将鼓励在反无人机技术方面进行更先进的工作。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至2161241530@qq.com 举报,一经查实,本站将立刻删除。如若转载,请注明出处:https://www.woiwrj.com/uncategorized/53837/