高等教育领域数字化综合服务平台
云上高博会服务平台 高校科技成果转化对接服务平台 大学生创新创业服务平台 登录 | 注册
|
搜索
搜 索
  • 综合
  • 项目
  • 产品
日期筛选: 一周内 一月内 一年内 不限
万深RootGA根系显微成像和动态生长监测系统
产品详细介绍万深RootGA根系动态生长监测分析和显微成像系统1、用途:定时自动成像雾培、水培、琼脂培养基培、土培、沙培的盆栽农作物根系,并动态监测其根系生长速度,动态跟踪根系细微结构、根尖数和根毛变化,以及根尖病变情况,宏观动态统计分析不同时刻点根系的整体发展变化,还可分析洗净根系情况,获得根系生长的动态数据,以便科学客观地评价植物生长质量相应关键因素,如分析:光照、水肥、温湿度环境对生长与抗逆性的影响。2、系统组成:多组的自动对焦800万像素多关节的大景深拍摄仪+背光套件+透明培养器皿套件,连续变焦单筒体视测量显微镜、500万像素显微相机、手动X-Y移动显微平台+上下光源,根系分析软件和电脑(酷睿i5 8400 CPU /8G内存/500G硬盘/1G显存/ 19.5”彩显/无线网卡)。3、 主要性能指标:1)多关节的大景深拍摄仪+背光成像套件可在植物侧面等位置上,在不同时刻点自动拍照跟踪监测根系,自动生成根系的整体发展变化和生长的动态数据,动态图示标记活体根系每天的新生长区和统计其对应的新生长根量,包括不同深度位置上的根量变化。系统具备对根系生长异常的预警机制。该动态跟踪分析的根系成像视野为240mm宽*380mm高,自动拍照分析的时间间隔0.5-48小时可调(若定时拍照时间点前接入电脑,即可自动启动拍照。1台电脑能自动轮巡监测10个视野以内的作物植株原位根系动态变化(标配默认提供4套动态生长监测成像硬件,若要实时监测10个视野的作物植株原位根系,需配10套拍照成像组件)。1分钟内自动拍完全部照片后,该监控电脑即可另做他用(不用被独占)。2)可按被监控根系分块区域图像显示根量随时间变化的密度热力图,各部位的变化精细度可由分块监控大小来自定义控制。根系软件能自动生成根系生长的视频,以便按时间节点来回溯查看。3)可对原位土培根系图像进行交互引导分析、锁定编辑根系路径、修正根系的长短、粗细、位置等。具有鼠标编辑点的跟随放大镜。能自动拼接多张原位根系图。4)可做洗净根系分析:1)根总长;2)根平均直径;3)根总面积;4)根总体积;5)根尖计数;6)分叉计数;7)交叠计数;8)根直径等级分布参数;9)根尖段长分布,10)可不等间距地自定义分段直径,自动测量各直径段长度、投影面积、表面积、体积 等,及其分布参数;11)能进行根系的颜色分析,确定出根系存活数量,输出不同颜色根系的直径、长度、投影面积、表面积、体积。12)能进行根系的拓扑分析,自动确定根的连接数、关系角等,还能单独地自动分析主根或任意一支侧根的长度和分叉数等,可单独显示标记根系的任意直径段相应各参数(分档数、档直径范围任意可改,可不等间距地自定义),并能进行根的分叉裁剪、合并、连接等修正,修正操作能回退,以快速获得100%正确的结果。13)能用盒维数法自动测根系分形维数。可分析根瘤菌体积在根系中的占比,以客观确定根瘤菌体贡献量。14)大批量的全自动根系分析,对各分析结果图可编辑修正。15)能做根系生物量分布的大批量自动化估算。16)能自动测量油菜、大豆等果荚的果柄、果身、果喙部分的粗细、长、弧长、玄高等参数。能自动测量各种粒的芒长。17)能测各类针叶的叶面积、长度、粗细。18)各分析图像、分布图、结果数据可保存,分析结果输出至Excel表,可输出分析标记图。5)可单筒体视显微镜500万像素彩色成像(最高可放大270倍),能自动拼接多张显微根系图,可分辨小至0.01mm的根毛,方便观察根际细微结构、根尖数和根毛变化,以及根尖病变情况;手动X-Y移动显微平台可二维扫描微观根系,获得超高分辨率的大幅面根系图像。
杭州万深检测科技有限公司 2021-08-23
TST1000大型结构在线监测分析系统
产品详细介绍TST1000为我公司专门为大型土木建筑(桥梁、高层建筑、大坝、隧道等)研制开发的一款长时监测系统,该系统具有安装简单快捷、长期稳定性好、防护等级高、无人值守等优点,可以配合各种传感器(应变、挠度、温度、风速、GPS等)完成信号的实时采集和存储,通过对桥梁或大型建筑结构状态的监测与评估 , 为桥梁或大型建筑在特殊气候 , 特殊交通条件下或运营状况严重异常时触发预警信号并分析评估桥梁及大型建筑使用寿命 , 并为建筑的养护、维修与管理决策 , 验证建筑设计理论 , 改进建筑设计方法和相应的规范标准提供科学的依据。TST1000数字模块能够通过RS485接口远距离控制外围设备,诸如风速仪、静力水准仪、各种数字传感器等,并通过网络回收数据。通过RS485的级联方式,能够灵活和简便实现客户不同现场环境中大系统、大范围的各种IO量扩展、采集控制、数据回收;通过网络传输,能够降低布线难度和降低传输过程中的信号干扰,能够帮助客户降低工程成本。TST1000为客户提供多种可选的通讯和扩展方式(网络、光纤、4G信号等),可根据现场条件选择合适的方式。通过客户端软件可远程查看桥梁的实时健康评估状况,软件还具有日(月、年)报表输出功能,产品已经广泛应用于国家高速上的多座大型桥梁。支持32组。
江苏泰斯特电子设备制造有限公司 2021-08-23
实验室安全智能监测与控制系统
     实验室安全智能监测与控制系统为高校实验室安全提供一体化解决方案。项目基于全要素管理、全过程监控、全方位感知(简称“三全”)的理念,聚集于实验室安全智能化管控,构建实验室安全智能监测与控制系统,通过多维监测、安全预警和智能应急等举措,开展实验室智慧安全管理,实现实验室的本质安全,提高实验室安全的技防水平。     实验室安全智能监测与控制系统采用模块化设计,由11个模块组成,责任体系、安全教育与考试、安全准入、分级管控、安全检查、危险源管理、应急管理、安全档案、综合管理、数据可视化。基于实验室安全工作的实际需求设计,由校级平台和院级平台组成。校级平台可实时监控各院系实验室安全工作情况,进行各类数据的调用、统计和分析,主要用于实验室安全工作决策和安全工作考核。院级平台可通过各模块开展具体管控工作,能够实时监控各实验室人员、危险源、环境等状况,实现实验室安全工作的智能管控。
江苏忠江智能科技有限公司 2022-07-12
鲁棒人脸视觉特征的提取、建模与识别的理论和方法研究
成果介绍人脸图像分析研究不仅能丰富和发展图像处理与分析的理论和方法,而且在教育、医疗、公安等社会服务以及公共安全等行业中具有重要的应用价值。基于人脸视觉特征的表情、身份以及亲属关系识别是当前人脸图像分析研究的前沿课题,而光照和人脸姿态变化等因素对人脸视觉特征提取与建模的影响则成为当前该研究面临的主要瓶颈。开展鲁棒人脸视觉特征的提取、建模与识别研究,突破现有研究的局限性,能显著推动人脸图像分析的研究进展,进一步满足国家在社会服务与公共安全等领域中的需求。技术创新点及参数1、 突破局部二值模式编码的视觉特征描述算子的局限性,提出局部三值模式编码的视觉特征描述算子,提出解决场景光照变化干扰以及高斯噪声干扰的图像处理一般性方法。2、 率先提出基于区域协方差矩阵的非正面表情特征描述方法,提出基于高斯混合模型和最小贝叶斯错误率估计的异方差鉴别分析方法,建立基于高斯混合模型的多视角表情识别理论。3、 率先提出基于人类学和遗传学的“父母—子女”亲属关系鉴别方法,提出以父母年轻时面部图像为桥梁的“父母—子女”亲属关系鉴别的子空间迁移学习理论和方法。4、 提出人脸视觉特征提取和识别的多流形鉴别分析理论,提出双子空间鉴别分析的增量式算法,突破双子空间鉴别分析方法的计算瓶颈。市场前景本项目围绕人脸图像中的表情、身份以及亲属关系识别等科学问题,深入开展鲁棒人脸视觉特征的提取、建模与识别的理论和方法研究,重点解决视觉场景中光照与人脸姿态变化下的鲁棒人脸视觉特征的提取与建模问题
东南大学 2021-04-11
一种智能视觉监控检索中提取目标运动轨迹特征的方法
本发明公开了一种智能视觉监控检索中提取目标运动轨迹特征的方法,包括以下步骤:获取目标运动轨迹,以二维空间坐标序列对目标运动轨迹进行描述;根据描述目标运动轨迹的二维空间坐标序列,计算描述每次采样中目标运动方向的水平分量和垂直分量;将每次采样中目标的二维空间坐标和描述每次采样中目标运动方向的纵向斜率和横向斜率合并组成每次采样中目标的流矢量;以流矢量序列对目标运动轨迹进行描述;读取预先建立的参考矢量集合;计算描述目标运动轨迹的流矢量序列到各参考矢量的距离作为该目标运动轨迹的特征向量。本发明方法使用流矢量序列描述目标运动轨迹并提取特征向量,可以在轨迹描述中同时包含位置和方向信息,避免了测量误差。
浙江大学 2021-04-11
汽车形象店建设及终端体验(EI)视觉识别系统规范设计
北京工业大学 2021-04-14
面向机器人的智能视觉环境感知及三维场景重建
面向机器人的智能视觉环境感知及三维场景重建 面向机器人视觉的自然场景理解是近年来的研究热点和重要挑战之一,其目标是对自然场景图像及视频的内容作出有效分析、认知与表达,目前相关理论和算法正处于初期探索阶段。我们的研究成果表明,从场景视觉语义推理、场景目标识别和场景行为模式检测三个环节展开研究,有助于构建自然场景理解的创新机制,进一步开发机器人
南京大学 2021-04-14
一种三维视觉目标检测与识别方法与装置
1. 痛点问题 我们生活在一个真实的三维世界中,二维环境感知是远无法满足我们的实际需求。在诸如自动驾驶、机器人抓取和三维目标识别等应用中(如图1),我们经常需要推理三维空间中物体之间的位置关系,从而能够理解真实三维场景并做出进一步的决策行为。 图1 自动驾驶、视觉抓取、物体识别 2. 解决方案 本技术成果提出了一种三维视觉目标检测与识别方法。在三维视觉目标检测方面,提出了一种基于关系推理网络的单目三维物体检测方法,方法流程图如图2所示。方法提出了一种新的单目三维物体检测架构,训练了一个深度关系推理网络来估计三维候选和真实物体之间的空间位置关系,通过测量投影结果和真实物体之间的视觉拟合度来实现高精的三维空间定位。 图2 三维目标检测的流程图 在三维视觉目标识别方法,提出了一种基于球面分形卷积神经网络的三维点云识别技术,方法流程图如图3所示。方法通过引入球面分形结构,将原始三维点云通过可学习的神经网络投影到球面,使得卷积神经网络可以高效处理三维点云数据并进行特征特征,同时通过设计基于分形结构的层次化学习框架,提高了三维点云物体识别的精度,实现了对于三维点云目标在旋转条件下特征表示的鲁棒性。 合作需求 寻求在人工智能、智能机器人、智慧城市等领域有相关技术开发、市场推广经验,能推进本技术落地的高科技企业,可以进行深度合作。本技术成果有望在自动驾驶、虚拟现实等场景进行落地应用。
清华大学 2021-12-16
基于虚实交互场景下的机器狗视觉控制系统研究
一、项目进展 创意计划阶段 二、负责人及成员 姓名 学院/所学专业 入学/毕业时间 学号 史雨杰 电信院/自动化 2019.9/2023.7 201931072537 李耀辉 电信院/机器人工程 2019.9/2023.7 201931072628 刘忠跃 电信院/自动化 2018.9/2022.7 201831073203 王怡欣 电信院/自动化 2018.9/2022.7 201831073423 孟泽涛 电信院/自动化 2018.9/2022.7 201831073302 三、指导教师 姓名 学院/所学专业 职务/职称 研究方向 李杰 电气信息学院 讲师 人工智能 四、项目简介 本项目基于虚实交互技术、仿生机器狗运动控制、机器视觉、机器算法等方面展开研究。其目的在于增强虚实场景下机器狗与现实环境的交互能力,使其更快速地适应复杂地形,并借助机器视觉丰富其应用性。机器狗采用Jetson-Nano为主控板,其上运行ROS系统,采用分布式运行rosserial_arduino、rosbridge实现机器狗运动控制和虚拟场景通信的环节;利用SLAM技术精确构建地形图样,模拟人的真实视觉功能并通过图像摄取装置赋予机器狗,使机器狗能够对图像信号进行获取和识别,并通过数字化处理以实现其在多目标环境下的个体追踪功能以及对人体的姿态识别功能。
西南石油大学 2023-07-17
一种多摄像头自适应的立体视觉测距装置
本实用新型涉及双目立体视觉测距技术,具体涉及一种多摄像头自适应的立体视觉测距装置,包括 主板,固定在主板上的左一摄像头、左二摄像头、右一摄像头、右二摄像头、右三摄像头、左数据传输 接口,及右数据传输接口,还包括外部控制板;左一摄像头、左二摄像头通过主板与左数据传输接口连 接;右一摄像头、右二摄像头、右三摄像头通过主板与右数据传输接口连接;左数据传输接口、右数据 传输接口分别与外部控制板连接。该测距装置结构简单、操作方便、成本低,具有多个摄像头,允许根 据待测物的实际位置和实际距离选择使用摄像头对,具有自适应性,可移植性强,能够实现双目立体视 觉测距所需图像数据的实时采集和传输。 
武汉大学 2021-04-13
首页 上一页 1 2
  • ...
  • 65 66 67
  • ...
  • 136 137 下一页 尾页
    热搜推荐:
    1
    云上高博会企业会员招募
    2
    64届高博会于2026年5月在南昌举办
    3
    征集科技创新成果
    中国高等教育学会版权所有
    北京市海淀区学院路35号世宁大厦二层 京ICP备20026207号-1