参考文献

注册

 

发新话题 回复该主题

泡泡图灵智库概率回归的视觉追踪 [复制链接]

1#

泡泡图灵智库,带你精读机器人顶级会议文章

标题:ProbabilisticRegressionforVisualTracking

作者:MartinDanelljan,LucVanGool,RaduTimofte

机构:ComputerVisionLab,D-ITET,ETHZurich,Switzerland

来源:CVPR

编译:董尔群

审核:wyc

这是泡泡图灵智库推送的第篇文章,欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权

摘要

视觉跟踪问题本质上是对每个视频帧中的目标进行回归的问题。尽管该领域已经取得了重大进展,但跟踪器仍然会出现于失败和不准确的情况。因此,表示出目标位置估计中的不确定性很关键。虽然目前流行的方法依赖于估计状态的置信度,但是这一数值往往缺乏明确的概率解释,使它的使用复杂化。因此,在这项工作中,我们提出了概率回归公式,并将其应用于跟踪。我们的网络会根据输入图像预测目标状态的条件概率密度。重要的是,我们的方法能够对由于不正确的标注和歧义而产生的标签噪声进行建模。我们通过最小化KL散度来训练回归网络。当应用于跟踪时,我们的方法不仅允许对输出结果进行概率上的表示,也大大提高了性能。我们的跟踪器在六个数据集上实现了state-of-the-art,在LaSOT上实现了59.8%的AUC,在TrackingNet上实现了75.8%的成功率。

背景与贡献

近年来,视觉跟踪领域的大多数工作品都通过建立目标模型,以便将目标与图像中的背景区分开。但是,这种方法带来了挑战,即目标模型必须在在线推理阶段构建,因此很难离线学习端到端系统。Siamese框架[1]已为解决这一难题而倍受

分享 转发
TOP
发新话题 回复该主题