高等教育领域数字化综合服务平台
云上高博会服务平台 高校科技成果转化对接服务平台 大学生创新创业服务平台 登录 | 注册
|
搜索
搜 索
  • 综合
  • 项目
  • 产品
日期筛选: 一周内 一月内 一年内 不限
关节测量尺关节角度尺F-JDC
F-JDC关节测量尺用于测量肘,手指等关节活动范围及脊柱弯曲程度。 测量范围: 角度:0-360° 长度:15cm-30cm 关节角度尺特点: 1、专门为风湿病学家,理疗医生和全科医生设计 2、是临床医生和生物工程师密切合作的结晶。 3、能够精确测量 4、简单易用 5、表面粗糙防滑,不易脱水 6、一系列测角仪可根据测量系统国际标准,用与5种刻度进行校准。 本文中所有关于关节测量尺-关节角度尺http://www.xinman8.com/280.html的文字、参数、图片等如有产品更新换代、参数变动请联系我们的销售、技术工程师。
上海欣曼科教设备有限公司 2021-08-23
多功能关节活动测量表F-QJB
F-QJB多功能关节活动测量表用于检测评定各关节活动度,重0.3kg。 相关产品: 关节测量尺-关节角度尺 本文中所有关于多功能关节活动测量表http://www.xinman8.com/279.html的文字、参数、图片等如有产品更新换代、参数变动请联系我们的销售、技术工程师。
上海欣曼科教设备有限公司 2021-08-23
万深PhenoGA植物表型分析测量仪
产品详细介绍一、概述:基因型、表型和环境是遗传学研究的铁三角。表型(性状)是基因型和环境共同作用结果,而基因型与表型之间有着多重关系。研究者用测序和基因组重测序来评估等位基因差异定位数量性状等已变得很普遍,但其需大量性状数据来佐证。然而这类分析测量的结果受人员、工具和环境等的干扰很大,还会损伤到植物。故迫切需要高效、准确的万深PhenoGA植物表型分析测量仪来做可视化的精确数据分析和表型测试,如测试对压力和环境因素的表型反应、生态毒理学测试或萌发测定、遗传育种研究、突变株筛选、植物形态建模、生长研究等。二、主要性能指标:1、万深PhenoGA植物表型分析测量仪是顶视+侧视版本,由顶视+侧视的超大变焦镜头自动对焦1500万像素以上的佳能EOS单反相机直联电脑获取植物顶视和侧视的RGB彩色图,并做自动分析;由顶部的主动红外双目3D相机(点云密度512*424像素)来获取植物冠层的3D景深伪彩色图和可转换视角的3D重建伪彩色图。2、可获得植物在不同生长阶段的表型数据主要有:植株高(测量误差≤±1.5mm)、投影叶面积及其差异值、投影叶片长和卷曲度、叶片数量(自动计数+鼠标个别修正)、叶冠层的3D构型数据(叶冠直径、叶冠层面积、叶冠层占空比、叶片分布和密度、叶冠层对称性等,冠层尺寸的测量误差≤±2mm)、植物株形、精准的茎叶夹角(真实夹角重复测量误差≤±1.0°)、节间长度及其空间体积估算值、植株高和叶冠层随时间改变的相对生长速率、叶色平均值(具有叶片颜色自动矫正特性,可按英国皇家园林协会RHS比色卡2015版来自动比色)及其对表征的贡献评估等。具有分析特性表述如下:1)常规分析:投影叶面积及其动态变化,外周长,外接圆直径及面积,拟合椭圆主副轴及偏角,凸包内径、面积及周长,植株高、宽,最小外接矩形长、宽,植株紧实度。2)颜色分析:RGB、LAB颜色值,具有叶片颜色自动矫正特性,可按英国皇家园林协会RHS比色卡2015版来自动比色。3)骨架分析:骨架长度,端点数(叶片数),分叉数(分枝数、分节数),茎叶夹角等。4)玉米株形分析:叶片数,叶片长、宽,叶片弯曲度,叶片投影面积,茎秆分节数,分节长、粗,叶片颜色等。5)生长分析:植株绝对生长、相对生长曲线,相对生长趋势。6)根系分析:根长,根粗,根尖数等(根粗>1mm)。7)考种分析:种粒数,种粒面积,种粒长、宽(种粒直径>5mm,不粘连)。8)其它:不同生长时期自动批量化处理分析,多植株网格分析,直线、角度等几何测量,各测量结果可编辑修正。3、可接入条码枪来自动刷入样品编号,具有按条码标识跟踪分析的特性。图像分析方式和耗时:自动分析(约1个样品 /分钟)+鼠标指示测量或修正。标配成像分析的植株高可达100cm(茎秆基部距顶部3D相机约135cm,植株距侧面拍摄仪约100cm)、叶冠幅可达100cm*80cm(拍摄箱外尺寸160cm高*120cm长*80cm宽)。各项分析数据和标记图片可导出。三、标配供货清单:1、超大变焦镜头自动对焦1500万像素以上的佳能EOS单反相机  2套2、主动红外双目3D相机及适配器  1套3、单反相机拍摄支架 1套4、含光源的拍摄箱(标配尺寸160cm高*120cm长*80cm宽)  1套5、万深PhenoGA植物表型分析测量仪软件及软件锁  1套6、叶色色彩矫正板和尺寸自动标定板1付7、手持式条形码阅读器 1付8、超薄背光灯板  1付注:可定制到250cm高*120cm长*120cm宽的拍摄箱或定制便携式的野外田间顶视版的分析检测仪。若加配万深SC-G自动考种仪、RootGA根系动态生长监测分析仪等,还可分析种子形态、果实外观品质、花形和花色、植株根系的胁迫响应等。推荐选配电脑:酷睿i5 CPU / 8G内存/ 256G硬盘 / 23”彩显/无线网卡,2个USB3.0和3个USB2.0口,Windows 完整专业版或旗舰版
杭州万深检测科技有限公司 2021-08-23
Semi-dry可穿戴脑电测量系统
产品详细介绍Semi-dry可穿戴脑电测量系统可穿戴脑电测量系统世界首创的Semi-Dry EEG水电级脑电系统(半干式电极),能够在脑电电极上通过少量水滴湿润的情况下执行高质量信号采集的技术(半干式电极几乎是干燥的),实际数据质量比干电极脑电系统更精确。与纯干电极设备对比,Semi-Dry EEG半干式电极脑电设备可以只使用少量水滴的湿度,但采集脑电信号质量比干电极更好;与传统的凝胶电极对比,实验准备时间比大大缩短,极短的系统配置时间即可开始工作,使用后无需清洁设备和头部。少量水滴对比长时间涂抹凝胶对于参与者来说也大大提高了用户体验与满意度,并且一旦完成实验水滴会蒸发掉(不需要像凝胶电极脑电系统一样清洁设备和头部)。Semi-Dry EEG/ERP系统是紧凑型便携式脑电系统,可实时记录8-64个EEG通道;由于Semi-Dry半干式电极传感器的创新设计,湿度可持续长达6小时,适合长时间数据连续采集,为用户提供了自由移动的高可用性。当进行高导联实验采用20-64个传感器时,用户可以更好地配置,使用更舒适。同时通过津发科技ErgoLAB人机环境测试云平台的EEG脑电同步采集分析模块拥有能够协同工作并与其他眼动传感器、生物传感器实时同步测量身体生理参数(如HRV,EDA,BVP,RESP,EMG等)。Semi-Dry EEG传感器放置在标准位置,高度稳定的触点和有源屏蔽,另一个重要的优点是系统具有主动屏蔽,与湿度传感器相结合,使传感器接触更稳定,这意味着在运动状态下采集信号质量更好,即使在户外作业条件下或存在电磁噪声的情况下,也能实现可靠,精确的数据记录。专为实验室外真实自然户外现场研究条件下多功能监控脑电图而设计,其操作简便佩戴舒适,系统配置非常快速且不需要使用电解凝胶,为研究人员提供了极大的舒适性和极高实验效率,同时由于其256Hz-1000Hz高采样频率和24Bit高精度也为实验室环境基础研究和应用研究开辟了大量可能性。该设备可结合津发科技ErgoLAB多通道模块化同步平台进行基于云架构的实验设计、数据同步采集处理,以及多通道人-机-环境测试数据综合分析,通过津发科技ErgoLAB人机环境测试云平台的EEG脑电同步采集分析模块拥有能够协同工作并与其他眼动传感器、生物传感器实时同步测量身体生理参数(如HRV,EDA,BVP,RESP,EMG等)。 ErgoLAB平台允许与其他技术同步采集并自主执行分析或使用津发科技ErgoLAB的综合分析平台。此外,对于任何特殊要求,津发科技ErgoLAB支持二次开发定制服务。定制开发服务♦支持EEG/ERP/BCI脑电与事件相关电位分析和BCI脑机接口技术开发♦实时多通道信号时域分析;♦实时多通道信号频域分析;♦兼容OpenVibe、BCI2000、EEGLab等第三方BCI脑机接口软件♦支持SSVEP、ERP/P300、MI三种主流BCI脑机接口研究范式;♦识别多种BCI脑机接口指令;♦提供成熟的BCI脑机接口算法;BCI脑机接口应用♦ BCI脑机接口基础开发平台;♦ BCI脑机接口+外骨骼;♦ BCI脑机接口+机器人;♦ BCI脑机接口+VR虚拟现实交互。与广泛的数据同步将脑电数据与广泛的数据同步,包括常用的生理数据GSR皮肤电,呼吸和心率等、EEG脑电,眼动、fNIRS近红外脑成像,人体动作,行为观察、面部表情、生物力学、人机交互。实现极低延迟的同步水平同时确保您的整体方案的便携性。Pro Glasses 2 提供了独有的硬件同步能力,无需携带沉重的笔记本电脑。数据分析模块如果研究人员希望得到比实时观察更深入、全面的结论, ErgoLAB可提供数据后期分析的强大工具。该软件为可穿戴式眼动追踪研究而设计,功能包括数据的叠加、诠释和可视化等。
北京津发科技股份有限公司 2021-08-23
鲁棒人脸视觉特征的提取、建模与识别的理论和方法研究
成果介绍人脸图像分析研究不仅能丰富和发展图像处理与分析的理论和方法,而且在教育、医疗、公安等社会服务以及公共安全等行业中具有重要的应用价值。基于人脸视觉特征的表情、身份以及亲属关系识别是当前人脸图像分析研究的前沿课题,而光照和人脸姿态变化等因素对人脸视觉特征提取与建模的影响则成为当前该研究面临的主要瓶颈。开展鲁棒人脸视觉特征的提取、建模与识别研究,突破现有研究的局限性,能显著推动人脸图像分析的研究进展,进一步满足国家在社会服务与公共安全等领域中的需求。技术创新点及参数1、 突破局部二值模式编码的视觉特征描述算子的局限性,提出局部三值模式编码的视觉特征描述算子,提出解决场景光照变化干扰以及高斯噪声干扰的图像处理一般性方法。2、 率先提出基于区域协方差矩阵的非正面表情特征描述方法,提出基于高斯混合模型和最小贝叶斯错误率估计的异方差鉴别分析方法,建立基于高斯混合模型的多视角表情识别理论。3、 率先提出基于人类学和遗传学的“父母—子女”亲属关系鉴别方法,提出以父母年轻时面部图像为桥梁的“父母—子女”亲属关系鉴别的子空间迁移学习理论和方法。4、 提出人脸视觉特征提取和识别的多流形鉴别分析理论,提出双子空间鉴别分析的增量式算法,突破双子空间鉴别分析方法的计算瓶颈。市场前景本项目围绕人脸图像中的表情、身份以及亲属关系识别等科学问题,深入开展鲁棒人脸视觉特征的提取、建模与识别的理论和方法研究,重点解决视觉场景中光照与人脸姿态变化下的鲁棒人脸视觉特征的提取与建模问题
东南大学 2021-04-11
一种智能视觉监控检索中提取目标运动轨迹特征的方法
本发明公开了一种智能视觉监控检索中提取目标运动轨迹特征的方法,包括以下步骤:获取目标运动轨迹,以二维空间坐标序列对目标运动轨迹进行描述;根据描述目标运动轨迹的二维空间坐标序列,计算描述每次采样中目标运动方向的水平分量和垂直分量;将每次采样中目标的二维空间坐标和描述每次采样中目标运动方向的纵向斜率和横向斜率合并组成每次采样中目标的流矢量;以流矢量序列对目标运动轨迹进行描述;读取预先建立的参考矢量集合;计算描述目标运动轨迹的流矢量序列到各参考矢量的距离作为该目标运动轨迹的特征向量。本发明方法使用流矢量序列描述目标运动轨迹并提取特征向量,可以在轨迹描述中同时包含位置和方向信息,避免了测量误差。
浙江大学 2021-04-11
汽车形象店建设及终端体验(EI)视觉识别系统规范设计
北京工业大学 2021-04-14
面向机器人的智能视觉环境感知及三维场景重建
面向机器人的智能视觉环境感知及三维场景重建 面向机器人视觉的自然场景理解是近年来的研究热点和重要挑战之一,其目标是对自然场景图像及视频的内容作出有效分析、认知与表达,目前相关理论和算法正处于初期探索阶段。我们的研究成果表明,从场景视觉语义推理、场景目标识别和场景行为模式检测三个环节展开研究,有助于构建自然场景理解的创新机制,进一步开发机器人
南京大学 2021-04-14
一种三维视觉目标检测与识别方法与装置
1. 痛点问题 我们生活在一个真实的三维世界中,二维环境感知是远无法满足我们的实际需求。在诸如自动驾驶、机器人抓取和三维目标识别等应用中(如图1),我们经常需要推理三维空间中物体之间的位置关系,从而能够理解真实三维场景并做出进一步的决策行为。 图1 自动驾驶、视觉抓取、物体识别 2. 解决方案 本技术成果提出了一种三维视觉目标检测与识别方法。在三维视觉目标检测方面,提出了一种基于关系推理网络的单目三维物体检测方法,方法流程图如图2所示。方法提出了一种新的单目三维物体检测架构,训练了一个深度关系推理网络来估计三维候选和真实物体之间的空间位置关系,通过测量投影结果和真实物体之间的视觉拟合度来实现高精的三维空间定位。 图2 三维目标检测的流程图 在三维视觉目标识别方法,提出了一种基于球面分形卷积神经网络的三维点云识别技术,方法流程图如图3所示。方法通过引入球面分形结构,将原始三维点云通过可学习的神经网络投影到球面,使得卷积神经网络可以高效处理三维点云数据并进行特征特征,同时通过设计基于分形结构的层次化学习框架,提高了三维点云物体识别的精度,实现了对于三维点云目标在旋转条件下特征表示的鲁棒性。 合作需求 寻求在人工智能、智能机器人、智慧城市等领域有相关技术开发、市场推广经验,能推进本技术落地的高科技企业,可以进行深度合作。本技术成果有望在自动驾驶、虚拟现实等场景进行落地应用。
清华大学 2021-12-16
基于虚实交互场景下的机器狗视觉控制系统研究
一、项目进展 创意计划阶段 二、负责人及成员 姓名 学院/所学专业 入学/毕业时间 学号 史雨杰 电信院/自动化 2019.9/2023.7 201931072537 李耀辉 电信院/机器人工程 2019.9/2023.7 201931072628 刘忠跃 电信院/自动化 2018.9/2022.7 201831073203 王怡欣 电信院/自动化 2018.9/2022.7 201831073423 孟泽涛 电信院/自动化 2018.9/2022.7 201831073302 三、指导教师 姓名 学院/所学专业 职务/职称 研究方向 李杰 电气信息学院 讲师 人工智能 四、项目简介 本项目基于虚实交互技术、仿生机器狗运动控制、机器视觉、机器算法等方面展开研究。其目的在于增强虚实场景下机器狗与现实环境的交互能力,使其更快速地适应复杂地形,并借助机器视觉丰富其应用性。机器狗采用Jetson-Nano为主控板,其上运行ROS系统,采用分布式运行rosserial_arduino、rosbridge实现机器狗运动控制和虚拟场景通信的环节;利用SLAM技术精确构建地形图样,模拟人的真实视觉功能并通过图像摄取装置赋予机器狗,使机器狗能够对图像信号进行获取和识别,并通过数字化处理以实现其在多目标环境下的个体追踪功能以及对人体的姿态识别功能。
西南石油大学 2023-07-17
首页 上一页 1 2
  • ...
  • 47 48 49
  • ...
  • 93 94 下一页 尾页
    热搜推荐:
    1
    云上高博会企业会员招募
    2
    64届高博会于2026年5月在南昌举办
    3
    征集科技创新成果
    中国高等教育学会版权所有
    北京市海淀区学院路35号世宁大厦二层 京ICP备20026207号-1