文中针对无约束环境下现实人体行为识别的难点问题,提出了一种自适应特征融合算法.首先,通过图像特征点跟踪和背景轨迹剪除,获得可靠的特征点轨迹,并从中计算得到一组丰富的动作描述符,以同时保留轨迹的局部运动信息、形状以及静态外观...文中针对无约束环境下现实人体行为识别的难点问题,提出了一种自适应特征融合算法.首先,通过图像特征点跟踪和背景轨迹剪除,获得可靠的特征点轨迹,并从中计算得到一组丰富的动作描述符,以同时保留轨迹的局部运动信息、形状以及静态外观信息;然后,采用词袋(Bag of Words,BOW)模型,将视频序列表示为视觉词语频率直方图;最后,为应对摄像头移动和静止情况下,视频中动作特点的剧烈变化,提出自适应的特征融合策略,即根据摄像头的动静情况,选择性地将基于特征点轨迹的描述符与基于3D兴趣点的描述符进行融合.通过在2个现实人体行为数据集上的实验并与当前已有算法的比较,证明了文中算法的有效性.展开更多
文摘文中针对无约束环境下现实人体行为识别的难点问题,提出了一种自适应特征融合算法.首先,通过图像特征点跟踪和背景轨迹剪除,获得可靠的特征点轨迹,并从中计算得到一组丰富的动作描述符,以同时保留轨迹的局部运动信息、形状以及静态外观信息;然后,采用词袋(Bag of Words,BOW)模型,将视频序列表示为视觉词语频率直方图;最后,为应对摄像头移动和静止情况下,视频中动作特点的剧烈变化,提出自适应的特征融合策略,即根据摄像头的动静情况,选择性地将基于特征点轨迹的描述符与基于3D兴趣点的描述符进行融合.通过在2个现实人体行为数据集上的实验并与当前已有算法的比较,证明了文中算法的有效性.