高等教育领域数字化综合服务平台
云上高博会服务平台 高校科技成果转化对接服务平台 大学生创新创业服务平台 登录 | 注册
|
搜索
搜 索
  • 综合
  • 项目
  • 产品
日期筛选: 一周内 一月内 一年内 不限
大象机器人—mycobot协作机械臂—人工智能套装—教学/视觉
    myCobot人工智能套装是集视觉、定位抓取、自动分拣模块为一体的入门级人工智能套装。基于Linux系统,在ROS搭建1:1仿真模型,可通过开发软件实现机械臂的控制,简单易学,能够快速入门学习人工智能基础知识,启发创新思维,领悟开源创意文化。本套装扩展性好,开放性高,可以被用于多种用途。可易用专科院校的实训平台、机器人学科搭建、机器人实验室或个人学习与使用。 产品特性 大视觉识别算法 四种颜色木块、不同形状卡片任意选择,4种ID二维码识别学习二维和三维世界之间的投影关系,图像特征点带你学习图像分割、保存图片特征,深度学习yolov5算法,让你了解神经网络。 6种适配机械臂 支持 myCobot、mechArm、myPalletizer 的M5Stack和树莓派版本。 aruco码的检测、跟踪:摄像头精确定位与标定,并进行自动抓取。 颜色及图像识别:应用深度学习算法,用户可以利用机械臂完成定位抓取和自动分拣。   联系我们:深圳市大象机器人科技有限公司 官网:https://www.elephantrobotics.com淘宝官方旗舰店:https://shop504055678.taobao.com/?spm=a1z10.1-c-s.0.0.2b0e58e7PY8UhV电话:+86 (0755) 8696 8565/+86 181 2384 1923地址:深圳市福田区华强北电子科技大厦D座智方舟国际智能硬件创新中心D403 D504 D505
深圳市大象机器人科技有限公司 2021-12-10
鲁棒人脸视觉特征的提取、建模与识别的理论和方法研究
成果介绍人脸图像分析研究不仅能丰富和发展图像处理与分析的理论和方法,而且在教育、医疗、公安等社会服务以及公共安全等行业中具有重要的应用价值。基于人脸视觉特征的表情、身份以及亲属关系识别是当前人脸图像分析研究的前沿课题,而光照和人脸姿态变化等因素对人脸视觉特征提取与建模的影响则成为当前该研究面临的主要瓶颈。开展鲁棒人脸视觉特征的提取、建模与识别研究,突破现有研究的局限性,能显著推动人脸图像分析的研究进展,进一步满足国家在社会服务与公共安全等领域中的需求。技术创新点及参数1、 突破局部二值模式编码的视觉特征描述算子的局限性,提出局部三值模式编码的视觉特征描述算子,提出解决场景光照变化干扰以及高斯噪声干扰的图像处理一般性方法。2、 率先提出基于区域协方差矩阵的非正面表情特征描述方法,提出基于高斯混合模型和最小贝叶斯错误率估计的异方差鉴别分析方法,建立基于高斯混合模型的多视角表情识别理论。3、 率先提出基于人类学和遗传学的“父母—子女”亲属关系鉴别方法,提出以父母年轻时面部图像为桥梁的“父母—子女”亲属关系鉴别的子空间迁移学习理论和方法。4、 提出人脸视觉特征提取和识别的多流形鉴别分析理论,提出双子空间鉴别分析的增量式算法,突破双子空间鉴别分析方法的计算瓶颈。市场前景本项目围绕人脸图像中的表情、身份以及亲属关系识别等科学问题,深入开展鲁棒人脸视觉特征的提取、建模与识别的理论和方法研究,重点解决视觉场景中光照与人脸姿态变化下的鲁棒人脸视觉特征的提取与建模问题
东南大学 2021-04-11
一种智能视觉监控检索中提取目标运动轨迹特征的方法
本发明公开了一种智能视觉监控检索中提取目标运动轨迹特征的方法,包括以下步骤:获取目标运动轨迹,以二维空间坐标序列对目标运动轨迹进行描述;根据描述目标运动轨迹的二维空间坐标序列,计算描述每次采样中目标运动方向的水平分量和垂直分量;将每次采样中目标的二维空间坐标和描述每次采样中目标运动方向的纵向斜率和横向斜率合并组成每次采样中目标的流矢量;以流矢量序列对目标运动轨迹进行描述;读取预先建立的参考矢量集合;计算描述目标运动轨迹的流矢量序列到各参考矢量的距离作为该目标运动轨迹的特征向量。本发明方法使用流矢量序列描述目标运动轨迹并提取特征向量,可以在轨迹描述中同时包含位置和方向信息,避免了测量误差。
浙江大学 2021-04-11
基于视觉特征的视频指纹检测及视频序列匹配方法及系统
本发明提出一种基于视觉特征的视频指纹检测方法,具体为: 按照帧间相关性对视频序列分段,在分段中提取关键帧;在各关键帧 中提取视频特征;利用像素点特征字典对像素点分类;对各关键帧分 别进行多次不同数量的分块,在各子块中依据像素点的分类结果统计 像素点特征字典各元素的出现次数,得到该子块的特征向量;将所有 子块的特征向量拼接得到关键帧的高维视频指纹;对各高维视频指纹 进行降维;将各视频片段关键帧的低维视频指纹按照时间先后顺序连 成关键帧视频指纹串。本发明还提供了基于上述指纹检测方法的视频 匹配方法。本发明通过对视频内容的关键信息进行有效描述,在不影 响匹配率的情况下,大大降低了算法的复杂度,有效提高了检测效率。
华中科技大学 2021-04-11
汽车形象店建设及终端体验(EI)视觉识别系统规范设计
北京工业大学 2021-04-14
面向机器人的智能视觉环境感知及三维场景重建
面向机器人的智能视觉环境感知及三维场景重建 面向机器人视觉的自然场景理解是近年来的研究热点和重要挑战之一,其目标是对自然场景图像及视频的内容作出有效分析、认知与表达,目前相关理论和算法正处于初期探索阶段。我们的研究成果表明,从场景视觉语义推理、场景目标识别和场景行为模式检测三个环节展开研究,有助于构建自然场景理解的创新机制,进一步开发机器人
南京大学 2021-04-14
一种三维视觉目标检测与识别方法与装置
1. 痛点问题 我们生活在一个真实的三维世界中,二维环境感知是远无法满足我们的实际需求。在诸如自动驾驶、机器人抓取和三维目标识别等应用中(如图1),我们经常需要推理三维空间中物体之间的位置关系,从而能够理解真实三维场景并做出进一步的决策行为。 图1 自动驾驶、视觉抓取、物体识别 2. 解决方案 本技术成果提出了一种三维视觉目标检测与识别方法。在三维视觉目标检测方面,提出了一种基于关系推理网络的单目三维物体检测方法,方法流程图如图2所示。方法提出了一种新的单目三维物体检测架构,训练了一个深度关系推理网络来估计三维候选和真实物体之间的空间位置关系,通过测量投影结果和真实物体之间的视觉拟合度来实现高精的三维空间定位。 图2 三维目标检测的流程图 在三维视觉目标识别方法,提出了一种基于球面分形卷积神经网络的三维点云识别技术,方法流程图如图3所示。方法通过引入球面分形结构,将原始三维点云通过可学习的神经网络投影到球面,使得卷积神经网络可以高效处理三维点云数据并进行特征特征,同时通过设计基于分形结构的层次化学习框架,提高了三维点云物体识别的精度,实现了对于三维点云目标在旋转条件下特征表示的鲁棒性。 合作需求 寻求在人工智能、智能机器人、智慧城市等领域有相关技术开发、市场推广经验,能推进本技术落地的高科技企业,可以进行深度合作。本技术成果有望在自动驾驶、虚拟现实等场景进行落地应用。
清华大学 2021-12-16
基于虚实交互场景下的机器狗视觉控制系统研究
一、项目进展 创意计划阶段 二、负责人及成员 姓名 学院/所学专业 入学/毕业时间 学号 史雨杰 电信院/自动化 2019.9/2023.7 201931072537 李耀辉 电信院/机器人工程 2019.9/2023.7 201931072628 刘忠跃 电信院/自动化 2018.9/2022.7 201831073203 王怡欣 电信院/自动化 2018.9/2022.7 201831073423 孟泽涛 电信院/自动化 2018.9/2022.7 201831073302 三、指导教师 姓名 学院/所学专业 职务/职称 研究方向 李杰 电气信息学院 讲师 人工智能 四、项目简介 本项目基于虚实交互技术、仿生机器狗运动控制、机器视觉、机器算法等方面展开研究。其目的在于增强虚实场景下机器狗与现实环境的交互能力,使其更快速地适应复杂地形,并借助机器视觉丰富其应用性。机器狗采用Jetson-Nano为主控板,其上运行ROS系统,采用分布式运行rosserial_arduino、rosbridge实现机器狗运动控制和虚拟场景通信的环节;利用SLAM技术精确构建地形图样,模拟人的真实视觉功能并通过图像摄取装置赋予机器狗,使机器狗能够对图像信号进行获取和识别,并通过数字化处理以实现其在多目标环境下的个体追踪功能以及对人体的姿态识别功能。
西南石油大学 2023-07-17
一种多摄像头自适应的立体视觉测距装置
本实用新型涉及双目立体视觉测距技术,具体涉及一种多摄像头自适应的立体视觉测距装置,包括 主板,固定在主板上的左一摄像头、左二摄像头、右一摄像头、右二摄像头、右三摄像头、左数据传输 接口,及右数据传输接口,还包括外部控制板;左一摄像头、左二摄像头通过主板与左数据传输接口连 接;右一摄像头、右二摄像头、右三摄像头通过主板与右数据传输接口连接;左数据传输接口、右数据 传输接口分别与外部控制板连接。该测距装置结构简单、操作方便、成本低,具有多个摄像头,允许根 据待测物的实际位置和实际距离选择使用摄像头对,具有自适应性,可移植性强,能够实现双目立体视 觉测距所需图像数据的实时采集和传输。 
武汉大学 2021-04-13
基于对象随机游走的遥感图像视觉显著性检测方法及系统
一种基于对象随机游走的遥感图像视觉显著性检测方法及系统,包括进行多尺度分割,并在每个尺 度下分别对颜色特征相似的邻接区域进行合并;对于每个尺度下的分割结果,分别提取每个分割区域的 视觉特征,构建当前尺度下的对象集合;对于每个尺度下的对象集合,通过对象间的特征差异计算对应 的边缘权重,并计算注意焦点在对象间的转移概率,获得注意焦点的转移概率矩阵,分别根据注意焦点 的转移概率矩阵计算注意焦点在所有对象间的平稳分布,由该平稳分布中每个对象对应的概率进一步计 算视觉显著性并归一化,获得当前尺度下的归一化视觉显著图;融合各个尺度下的视觉显著图,即可获 得该遥感图像最终的视觉显著图。
武汉大学 2021-04-13
首页 上一页 1 2
  • ...
  • 15 16 17 18 19 20 下一页 尾页
    热搜推荐:
    1
    云上高博会企业会员招募
    2
    63届高博会于5月23日在长春举办
    3
    征集科技创新成果
    中国高等教育学会版权所有
    北京市海淀区学院路35号世宁大厦二层 京ICP备20026207号-1