一、项目简介运动目标的视觉信息受不可预测和控制因素影响,具有巨大的不确定性,如运动目标本身的视觉变化、复杂运动场景和视觉遮挡等。我们的研究目标集中在建立一种新的运动视觉计算模型,包括视觉任务学习、前期注意选择、协同运动分析、鲁棒信息融合、上下文意识学习等,发展更有效的运动目标跟踪和识别方法和计算工具,以突破智能视频监控、机器人和人机交互等的应用瓶颈。人类视觉具有根据任务和场景,把视觉注意集中于有意义场景目标的能力,选择性和主动性是人类视觉信息处理的重要特征。机器人系统具有良好的运动能力,能够为机器人视觉系统实现外界信息获得的主动性和视觉信息处理的选择性提供有效的控制手段。通过算法编译赋予机器人视觉任务学习的场景感兴趣目标发现能力,通过多通道场景视频的视觉目标关联性计算,实现同一监控场景物体,在不同摄像机获取的视频图像序列中,其目标图像的视点和尺度不同,基于目标动作和视觉外观的多线索感知特征整合的 target re-identification 可以解决大场景图像微小目标的协同跟踪问题。以 PTZ 相机为核心主动目标选择聚焦视觉系统的物理实现。PTZ 相机具有镜头变焦、变倍和全方位转动