高等教育领域数字化综合服务平台
云上高博会服务平台 高校科技成果转化对接服务平台 大学生创新创业服务平台 登录 | 注册
|
搜索
搜 索
  • 综合
  • 项目
  • 产品
日期筛选: 一周内 一月内 一年内 不限
广州市爱递思电子科技有限公司
广州市爱递思电子科技有限公司 2022-11-01
北京安博通科技股份有限公司
北京安博通科技股份有限公司 2022-11-01
广东泰迪智能科技股份有限公司
广东泰迪智能科技股份有限公司(以下简称“泰迪智能科技”)由张良均先生创办于2013年,致力于打造产教融合的就业育人综合服务平台。 泰迪智能科技基于十余年的数据智能产业实践经验,专注于大数据和人工智能方向,构建“岗、证、赛、书、课”融通的特色职业人才培养模式,助力中国职业教育高质量发展。目前公司拥有团队200多人,近4000平方米的工作及实训场地,15个分公司分布全国各地,60余项大数据挖掘技术相关专利,35项软件著作权,出版图书专著70余本,与1500多个高校达成合作,惠及师生近百万人。
广东泰迪智能科技股份有限公司 2022-11-22
遨博(北京)智能科技股份有限公司
遨博 (北京) 智能科技股份有限公司成立于 2015 年,是我国首家致力于协作机器人研发、生产和销售的国家高新技术企业。公司具有一支院士挂帅、教授领衔、博士负责、硕士和本科支撑的机器人技术研发团队,为产品开发和前瞻性研究提供强大的技术保障,创立伊始便以研发自主可控协作机器人为目标,通过多年研发积累,相继突破控制器、减速器、伺服电机、传感器等关键核心技术,于2015年在国内推出首款具有核心自主知识产权及国产化的协作机器人AUBO-i5,填补了我国在协作机器人领域无国产化产品的空白。遨博是国家高端装备制造业标准化试点单位和全国自动化标准委协作机器人工作组秘书处单位,牵头制订《面向人机协作安全工业机器人标准》、《工业机器人的通用驱动模块接口标准》《机器人多维力/力矩传感器检测规范》等多项国家标准,参与制定《面向多核处理器的机器人实时操作系统应用框架》、《机器人与机器人装备:协作机器人》等多项国家标准。并且承担了两项国家重点研发计划-协作机器人一体化关节研发与验证、面向汽车零部件协作机器人应用示范。先后荣获北京市专利试点单位、“中国制造 2025”高端装备制造新兴紧缺领域高新技术企业等诸多荣誉奖项。同时也是国内首个协作机器人领域的1+X职业技能等级标准考核鉴定企业。遨博在协作机器人行业处于国内顶尖地位,是国内市场占有率、出口量均排名第一的国产协作机器人。目前遨博机器人全球代理商 200余家,产品销售遍布全球50多个国家,是全球协作机器人安全及认证领域最全面的公司之一。目前与国内外50余家知名企业建立生态合作关系,合作领域包括末端执行器、视觉系统、移动平台、传感器、软件及机器人附件等,成为推动国家工业发展的重要动力。此外遨博面向教育领域成立了以“遨博学院”为品牌的专业机构,从事以协作机器人为核心的智能制造全产业链人才培养和产教融合服务。依托遨博公司广泛的产业应用和北航、哈工大、清华等高校机器人领域深厚的技术积淀,以培养智能制造产业的高素质复合型应用人才为核心,服务于新时代院校教育改革。
遨博(北京)智能科技股份有限公司 2023-02-20
河北华发教育科技股份有限公司
      河北华发教育科技股份有限公司(股票代码:833960)始建于2008年,是一家专注于触控显示终端和交互智能平板以及线上教学评价软件的研发、生产与销售的国家高新技术企业。2015年10月,公司挂牌新三板创新层。公司拥有包括深圳市皓华达科技有限责任公司、唐山信发触控电视制造有限公司等12家全资子公司。公司被评为国家软件企业,国家首批专精特新小巨人企业、河北省技术创新示范企业、河北省创新型企业、河北省“专精特新”企业、河北省专精特新示范企业等荣誉称号。董事长蒋超是2015年河北省“五四青年奖章”获得者;2018年度唐山市市长特别奖获得者;2020年入选唐山市劳动模范。        公司始终致力于教育信息化产品的研发及数字化校园的打造,依托在触摸显示终端、人机交互、应用开发、线上平台等技术领域的产品开发经验,面向多应用场景,通过技术创新不断延伸和丰富产品结构。其中触控显示终端产品作为公司核心技术产品,包含红外多点触摸屏、智慧黑板等,现已在教育信息化领域推广,覆盖全国北京、天津、陕西、江苏、浙江等23各省市中250000多间教室。并远销美洲、澳洲、东亚及非洲等二十个国家和地区,成为印度在触控产品方面的指定供应商。目前公司是我国华北地区红外触摸生产基地,是京津及华北地区智慧教育终端产品生产企业。已通过IS09000质量管理体系认证、CE管理体系认证、ROSH认证等5项国内外体系和产品认证。
河北华发教育科技股份有限公司 2023-02-23
全美在线(北京)科技股份有限公司
全美在线(北京)科技股份有限公司(以下简称“全美在线(ATA)”)是中国智能化考试测评服务和操作类考试测评技术的专业化供应商。 全美在线(ATA)以“成为全球专业的考试测评服务机构和人才大数据运营商”为公司愿景;以“创建亿万人的才智发展图谱”为公司使命。 全美在线(ATA)长期致力于为中国以及全球政府机构、行业协会、企业和考生提供专业的考试测评和在线学习服务;全美在线(ATA)自主知识产权的考试测评技术以多种语言应用于全球多个国家和地区,是将考试技术向海外输出的中国公司之一。全美在线(ATA)创造性地将形成性评价技术应用于在线学习领域,为千万考生能力提升提供卓有成效的学习模式,为主办方提供成熟、可靠的在线学习技术与运营服务。 全美在线(ATA)拥有遍布全国34个省、自治区、直辖市及香港、澳门特别行政区,以及欧洲、美洲的3,000余家考站,可为考试主办方和招聘企业提供广泛的计算机智能化考试测评服务,具备在同一天部署实施百万科次考试测评,年部署实施数千万科次考试测评的能力。 全美在线(ATA)总部位于北京,研发及运营中心设于上海,在全国设有联络机构。 ATA(Advanced Testing Authority)成立于1999年,全美在线(ATA)成立于2006年。2018年全美在线(ATA)完成与美国上市公司Ata Inc.(NASDAQ:ATAI)的拆分,将持续专注于考试测评的核心业务,并不断向人才能力提升和招聘求职延展,为考试主办方、考生提供领先、专业的考试测评技术和运营服务,致力于成为全球服务人次多,技术先进,评价精准的考试服务公司。
全美在线(北京)科技股份有限公司 2023-02-23
一种畜禽肉多要素黏弹模型建立方法
本发明属于食品检测技术领域,涉及一种畜禽肉黏弹性无损检测方法,具体涉及一种多要素黏弹模型建立及其黏弹参数确定的方法。具体步骤为:首先利用畜禽肉黏弹性无损检测系统采集、计算待测样品的应变数据;然后根据待测样品的变形特征选择多要素模型,将不同多要素模型与不同数据拟合算法结合,对应变数据进行数据拟合,建立若干畜禽肉多要素黏弹模型;最后比较若干畜禽肉多要素黏弹模型的拟合效果,根据实际需求,选择最佳畜禽肉多要素黏弹模型,并计算黏弹参数。最终实现对畜禽肉黏弹性的无损、快速检测。
中国农业大学 2021-04-11
基于时空多尺度联合学习模型的能源需求预测技术
本项目提出了将时间维度与空间维度相结合的多尺度综合能源需求分析与预测模型,设计并实现了一种面向智慧城市的综合能源需求分析与预测的方法,提升能源供应规划和营销策略的优化与决策支持。
南开大学 2021-02-01
一种基于Bagging-RNN模型的电梯制动性能评价方法
一种基于Bagging?RNN模型的电梯制动性能评价方法,包括:a)获取不同制动性能的电梯在制动过程中的闸皮温度序列数据,作为样本集;b)按照比例将样本集划分为训练集和验证集;c)使用训练集数据训练Bagging?RNN模型,根据训练误差修正Bagging?RNN模型参数;d)使用验证集数据验证Bagging?RNN模型的泛化能力,根据验证结果进一步修正Bagging?RNN模型参数,将修正后的Bagging?RNN模型作为电梯制动性能的评价模型;e)将被测电梯在制动过程中的闸皮温度序列数据作为Bagging?RNN模型的输入,模型输出被测电梯的制动性能评价结果。本发明从电梯制动时电梯闸皮最高温度变化的生成机理出发,获取不同制动性能电梯制动过程中的闸皮温度序列数据,并基于历史数据提出了相应的电梯制动性能的评价方法。
东南大学 2021-04-11
机械臂无模型视觉反馈控制及其自适应操作应用研究
一、项目简介 随着科技进步和社会需求的发展,机器人手/臂除了工业生产,也越来越多用于服务人类的其它各个领域,这必然会使机器人承担比工业中更加多样的操作任务,面临更加多变的工作环境。因此,国内外对非结构自然环境下、具备自主操作能力的机器人的研究十分重视。当前,具备视觉感知能力的机器人已被公认为机器人发展的主流趋势,将视觉与机器人操作相融合,是对人类行为的模拟,由此产生的视觉伺服控制方法为机器人自主操作能力的实现带来了新的思路,代表了机器人的先进控制技术,也是促进机器人智能化发展的一个重要驱动。可以预见,未来的视觉系统将会成为机器人名副其实的眼睛,视觉伺服技术在机器人自主操作中将具有不可替代的作用。 视觉伺服利用视觉传感器提供的环境信息对机器人运动进行实时反馈控制,涉及机器人机械几何设计、运动学和动力学、自动控制理论、计算机视觉图像处理和摄像机标定等,是智能机器人领域中具有重要理论意义的研究课题之一。迄今为止,机器人手/臂的视觉伺服方法在太空遥操作、机器人手术、水果采摘、工业装配、焊接、抓取以及微操作等方面得到越来越多的应用。然而,现阶段可实际应用的方案主要面向特定的标定环境、模型参数已知,机器人操作是编码定式的,不具备模型未知条件下的自主操作能力,特别是当面向未来的刚-柔-软体共融机器人时,其柔型结构造成的运动模型及参数的变化与不确定性,必然使现有确定模型的研究方法失效。因此,无模型(目标几何模型,手眼标定模型,机器人运动模型)、非结构环境下的自适应操作对机器人提出了新挑战,是机器人手臂(尤其柔型手臂)视觉伺服控制研究的难点与前沿问题,不断深入对非结构环境下、无模型的机器人手/臂视觉伺服控制的研究具有重要的理论和现实意义。 在非结构自然环境下使机器人像人一样协调自适应操作是当今机器人研究领域的一项尚未实现但又令人感兴趣的研究工作。从理论上看,非结构自然环境下实现机器人柔性操作,就当前研究依靠单一的控制器设计是困难的。因此,本项目借鉴人的手眼协调操作是自适应学习过程,涉及智能进化和行为优化,将随机动态规划理论,结合约束规则与最优化控制,探索一种变参手眼关系,实现机器人在非结构自然环境下的自适应操作。 二、前期研究基础 研究团队一直致力于机器人视觉反馈控制的研究。在基础理论研究上,针对无标定视觉伺服控制方案与设计,均提出了一些新型方法,有扎实的理论基础和知识积累,并不断跟踪和深入在无模型视觉伺服控制的方面研究和前沿问题。目前,已经着手在无模型视觉伺服的可靠性、稳定性控制方面做了充分的探索工作:针对机器人无标定全局稳定操作问题,研究了一种鲁棒卡尔曼滤波(RKF)合作Elman神经网络(ENN)的全局稳定视觉伺服控制方法;提出了一种基于网络辅助尔曼滤波状态估计的无标定视觉伺服方法,提高伺服系统的鲁棒性。同时,立足机器人发展前沿,建立了多模特征深度学习抓取系统,在无结构环境下实现了机器人智能抓取与定位。 已发表的与项目相关的主要论文有: [1] 仲训杲,徐敏,仲训昱,彭侠夫.基于多模特征深度学习的机器人抓取判别方法.自动化学报,2016,7(42), pp:1022-1029. (EI) [2] Xungao Zhong, Xunyu Zhong and Xiafu Peng. Robots Visual Servo Control with Features Constraint Employing Kalman-Neural-Network Filtering Scheme. Neurocomputing, 2015, 151(3), pp:268-277 (SCI)  [3] Xungao Zhong, Xunyu Zhong and Xiafu Peng. Robust Kalman FilteringCooperated Elman Neural Network Learning forVision-Sensing-Based RoboticManipulation with Global Stability. Sensors, 2013, 10(13), pp:13464-13486. (SCI) [4] Xungao Zhong, Xiafu Peng, Xunyu Zhongand Lixiong Lin. Dynamic Jacobian Identification Based on State-Space for Robot Manipulation. Applied Mechanics andMaterials, vols. 475-476 (2014)pp: 675-679.(EI) [5] Xungao Zhong, Xiafu Peng, Xunyu Zhong and Xueren Dong. Multi-Channel with RBF Neural Network Aggregation Based on Disparity Space for Color Image Stereo Matching. IEEE 5th International Conference on Advanced Computational Intelligence (ICACI), 10(2012) PP:620-625. (EI) [6]XUNGAO ZHONG, XIAFU PENG, XUNYU ZHONG. NEURAL-BAYESIAN FILTERING BASED ON MONTE CARLO RESAMPLING FOR VISUAL ROBUST TRACKING. Journal of Theoretical and Applied Information Technology, 2013, 2(50), pp: 490-496. [7] Xungao Zhong, Xiafu Peng and Xunyu Zhong. Severe-Dynamic Tracking Problems Based on Lower Particles Resampling. TELKOMNIKA Indonesian Journal of Electrical Engineering. 2014, 12(6), pp:4731-4739. [8] Xunyu Zhong, Xungao Zhong and Xiafu Peng. Velocity-Change-Space-based Dynamic Motion Planning for Mobile Robots Navigation. Neurocomputing. 2014, 143(11), pp:153-163. (SCI) [9] Xunyu Zhong, Xungao Zhong, Xiafu Peng. VCS-based motion planning for distributed mobile robots: collision avoidance and formation. Soft Computing,2016,5(20), pp: 1897-1908. (SCI) [10] 仲训杲,徐敏, 仲训昱, 彭侠夫. 基于雅可比预测的机器人无模型视觉伺服定位控制, 控制与决策, 已在线发表, 2018. [11] 仲训杲,徐敏, 仲训昱, 彭侠夫. 基于图像的机器人非标定视觉反馈控制全局定位方法, 厦门大学学报(自然科学版), 已录用, 2018. 三、应用技术成果 (一)基于多模特征深度学习的机器人抓取判别 研究了多模特征深度学习及其在机器人智能抓取判别中的应用,该方法针对智能机器人抓取判别问题, 研究多模特征深度学习与融合方法. 该方法将测试特征分布偏离训练特征视为一类噪化, 引入带稀疏约束的降噪自动编码 (Denoising auto-encoding, DAE), 实现网络权值学习; 并以叠层融合策略, 获取初始多模特征的深层抽象表达, 两种手段相结合旨在提高深度网络的鲁棒性和抓取判别精确性. 实验采用深度摄像机与 6 自由度工业机器人组建测试平台, 对不同类别目标进行在线对比实验. 结果表明, 设计的多模特征深度学习依据人的抓取习惯, 实现最优抓取判别, 并且机器人成功实施抓取定位, 研究方法对新目标具备良好的抓取判别能力. (二)无标定视觉伺服解决方案及其机器人操作应用 研究了无标定视觉伺服方法及其在机械臂任务操作中的应用。首先提出视觉伺服目标:假设机器人或者摄像节的模型参数未知或者部分未知,视觉伺服的目标是使用摄像节作为传感器,引导机械臂运动,使当前图像特征收敛到期望图像特征,从而完成定位或者跟踪的任务。 手眼协调关系描述。关节图像雅克比矩阵定量描述了机械臂关节变化引起图像特征变化,它是关节-图像映射的局部线性化矩阵。 建立图像雅克比的在线估计器。将关节图像雅克比矩阵的每一个元素作为辅助系统的状态,建立辅助系统的状态方程;摄像机提取到的图像特征作为测量值,建立辅助系统的观测方程。根据Kalman滤波器理论,我们设计了对关节图像雅克比的在线实时估计算法。 构建基于图像矩的目标函数。为了避免传统的基于点特征的缺陷,例如点特征的标记、提取与匹配过程复杂且通用性较差问题。构建基于图像矩的图像特征向量完成视觉伺服任务,来提高视觉伺服系统的稳定性和可靠性。 四、合作企业 厦门万久科技股份有限公司是一家集销售、软件研发、技术服务、加工技术整合为一体的高新技术企业。目前公司的经营范围涉及CNC软件开发及数控系统销售、CNC控制零件销售及专业维修;工艺优化、机台升级与技术改造、工程配电与软件优化、专用机控制系统开发、多轴机的设计与开发、机台精度检测与校正优化服务等。公司是国际知名生产制造企业——富士康的产品供应商和技术服务商。    
厦门大学 2021-04-11
首页 上一页 1 2
  • ...
  • 505 506 507
  • ...
  • 536 537 下一页 尾页
    热搜推荐:
    1
    云上高博会企业会员招募
    2
    64届高博会于2026年5月在南昌举办
    3
    征集科技创新成果
    中国高等教育学会版权所有
    北京市海淀区学院路35号世宁大厦二层 京ICP备20026207号-1