高等教育领域数字化综合服务平台
云上高博会服务平台 高校科技成果转化对接服务平台 大学生创新创业服务平台 登录 | 注册
|
搜索
搜 索
  • 综合
  • 项目
  • 产品
日期筛选: 一周内 一月内 一年内 不限
高校一站式网上大厅系统
智教高校一站式网上大厅系统构建一个集成化、智能化的在线服务系统,覆盖高校教学、管理、生活等核心场景,高效处理来自学生和教职工的各类申请业务,如学生的请假审批、奖学金审批,教职工的调课审批、报销审批等。审批流程应具备灵活性,可根据不同业务类型设置不同的审批节点和权限。为师生提供便捷、高效、安全的“一站式”服务,推动校园数字化转型。 审核流程具备工作流引擎,支持自定义各项审批流程,包括但不限于:学籍异动、处分审核等。提供伴随工作流程的消息提示功能。可设置工作流程的审批某个角色,流程执行过程中的审批人可以精确指定为角色下的某个用户。 可以根据高校实际业务管理需求及线下一站式大厅地址及布局,自定义预约部门信息、预约地点、办事内容等信息,学生可以通过手机移动端线上查看,并根据个人需求选择。 1、将学校教务、学工、后勤、科研等各部门分散的服务事项整合至一站式网上大厅。通过搜索栏、分类导航等多种便捷查找方式,用户能够快速定位所需服务。针对不同服务类型,定制灵活可变的业务流程,涵盖申请、审核、审批直至办结的全流程,并配备自动提醒机制,保障业务处理的及时性。 2、学校管理部门实现各类申请业务的高效审批。审批流程可根据业务类型灵活设置不同审批节点与权限。 3、打造功能齐全的信息发布平台,学校管理部门可轻松发布通知公告、政策法规、新闻资讯等各类信息。
吉林省智教软件有限责任公司 2025-05-16
人体针灸穴位交互数字系统(仿古铜人)
产品概述: 人体针灸穴位数字交互系统是依据全国中医药行业高等教育“十四五”规划教材《针灸学》等进行研发,结合最新的计算机和三维虚拟仿真技术,把腧穴的认穴识穴、针灸手法、针灸治疗、人体解剖等知识进行呈现。针灸穴位发光人模型根据真实人体比例制成,含肌肉解剖、经脉循行流注、经脉络属表里关系等专业知识,内置光电感应电路模拟人体穴位,可实现穴位发光、语音播报、模型同步跟随,形成了新的中医针灸穴位的互动教学模式,方便了老师教学和学生学习。 系统内容: *1.1.、系统包含十四经络和针灸治疗两大模块。 *1.2、十四经络:包含了手太阴肺经、手阳明大肠经等十四经络循行(古今)介绍、病候、主治、穴位、分寸等内容; *1.3、针灸治疗:涵盖六种疾病类型,上百种病症的定义、辨证、治疗、主穴、配穴、方义、操作等详细内容 *1.4、针刺视频:包含40多种针刺手法以及分布腧穴毫针刺法、局部多针刺法等视频教学,教学效果直观有效。 1.5、穴位详解:三维虚拟模型上详细展示人体≥800(包含双侧)个腧穴的名称、注音、国际代码、点位、解剖位置等信息。 *1.6、常见的危险穴位具有特殊标记,详细信息包含异常针刺情况表现及情况处理。 *1.7、配备腧穴的横断面或矢状面图谱,了解腧穴在皮下的解剖结构和针刺的入针情况。 二、实训功能: 2.1、可实现铜人模型上≥210个穴位灯光的实时操控。 *2.2、软硬件同步:穴位发光、声音、三维虚拟人体模型跳转同步控制。 2.3、腧穴播报:可在使用硬件操作时,系统可以自动实时播报腧穴名称等内容。 2.4、双向交互:软件可控制铜人穴位灯的开启与关闭,铜人穴位触控笔点亮穴位,软件中三维模型可跳转到相应位置,并播报其穴位名称。 *2.5、在没有与软件系统相连接时,用户也可使用穴位触控笔点亮铜人模型上的穴位灯光。 *2.6、单穴、多穴:可选择单穴或多穴模式,实现不同数量穴位灯光的开启与关闭。 *2.7、经络循行:通过三维动效形式展示。可通过软件系统操作数字虚拟模型的经络开关,点亮铜人上的一整个经络穴位,显示十二经脉循环流注,经脉络属表里对经关系,直观了解人体中医经络循行。 *2.8、铜人穴位灯光可实现经络的循行走向。 2.9、穴位灯光可实现闪动与常亮。 2.10、利用红、橙、蓝、绿四种颜色穴位灯进行经络及穴位区分。 2.11、复位功能:一键关闭硬件模型上所有的灯光显示。 2.12、系统具有示教、训练多种功能,根据需求,在软件功能里选择需要点亮标记的腧穴,进行相关的教学和训练。 *2.13、针灸治疗模块下,配合铜人模型可对不同病症的主穴或配穴的穴位灯单独显示。 *2.14、演示功能:可实现所属经络的穴位灯光循环闪动。 三、软件功能 *3.1、根据真实人体比例打造高仿真的三维人体数字模型,可进行任意角度旋转、放大、缩小、平移,可切换前、后、左、右、上、下六视图、对任意界面进行截图保存等多种操作等。 3.2、重置:一键重置三维模型至初始状态。 3.3、对称穴位:一键显示对侧的穴位,方便对侧穴位的定位和学习。 3.4、骨度分寸:根据当前学习的穴位,一键获得根据临近结构得出的分寸信息,更方便腧穴认知。 *3.5、透明度:可一键透明皮肤、肌肉、骨骼,也可以调节不同层度的透明度,方便学习人体的内部解剖结构的毗邻关系。 *3.6、搜索:输入穴位名称、拼音或代码,可在三维人体模型上快速定位到该穴位。 *3.7、系统:可以对皮肤、肌肉、骨骼、脏器、血管、神经等解剖系统进行隐藏和显示。 3.8、设置:多背景颜色设置,适配不同的操作场景。 3.9、界面清爽模式:一键隐藏所有功能选区,只显示三维虚拟模型,并可随时调取。 3.10、一键实现模型衣服的隐藏和显示,方便模型穴位的查看。 3.11、语音功能:针对详细注解内容,进行对应的语音讲解。 *3.12、具备模拟考试功能,自动从实训题库中随机选择5道题目,组成模拟卷,供随机练习。另具有危险穴位题库可供选择。 四、配置清单 4.1、65寸触摸一体机含支架。 4.2、主机:intel i5处理器、 8G 及以上内存、 500G SSD高速固态硬盘、独立显卡支持高清输出。 *4.3、仿古铜人模型:全铜打造,高度不低于168CM,重量不低于75kg. 五、中医针灸数字人系统V1.0 一套
中启新创(郑州)智能科技有限公司 2026-03-04
教育部关于深入推进学术学位与专业学位研究生教育分类发展的意见
坚持两类学位同等重要
教育部 2023-12-19
北京邮电大学副校长彭木根:“本研贯通”,分层分类培养拔尖创新人才
教师是立教之本、兴教之源。为进一步推进教育强国建设与高等教育高质量发展,落实立德树人根本任务,大力弘扬教育家精神,提升高校教师教书育人能力和高校人才自主培养质量,打造高校教学改革的风向标,中国高等教育学会联合中国教育在线推出《强国师说》系列访谈栏目。
中国高等教育博览会 2024-09-24
基于视听融合的智能导盲机器项圈系统
1.成果原理:通过图像增强算法优化恶劣天气下导盲犬视野,结合Transformer模型实现环境多模态语音描述,并通过手机平台实现远程监控与交互。 2.创新点:恶劣天气适应性(突破传统导盲设备在雾霾、雨雪等极端场景的视觉限制);多模态交互(支持语音合成、家人音色定制及实时场景描述,兼顾安全性与情感需求);轻量化设计(项圈重量适配犬只行动,避免传统穿戴设备的负担)。 3.应用场景:视障人士日常出行、导盲犬训练基地、公共复杂环境。 4.应用案例:与吉林外国语大学、科大讯飞联合开展技术验证,完成实验室原型测试。 5.成果获奖: 2023年“互联网+”大学生创新创业大赛吉林省铜奖 2024年“挑战杯”吉林省大学生创业计划竞赛银奖 6.成果评价:丰富了国内导盲生物辅助设备研究内容,获吉林省大学生创新创业大赛重点支持,技术专利布局中,市场潜力预估超800万视障人群需求,助力东北地区智能装备产业升级与民生福祉提升。
吉林外国语大学 2025-05-07
寒旱地区被动式生态户厕系统
该方案针对寒旱区户厕用水不便、冬季上冻、清掏成本高等问题,提出了一种创新解决方案。通过太阳能加热技术与柔性材料结合,有效减缓冬季上冻问题,同时提高粪便堆肥发酵效率,确保极寒天气下的正常使用。方案优势如下: 人性化设计:粪便无害化处理减少蚊蝇滋生和异味,提升农村人居环境。温感座圈、扶手、置物架及太阳能照明等设施,提高冬季如厕舒适度和老年人如厕安全性。 环境友好:便器无需用水,粪尿经无害化处理后可直接还田利用,降低环境污染风险和碳排放。 经济可持续:相比同类设备,施工和使用成本显著降低。高效防冻措施减少施工复杂度,太阳能加热和好氧堆肥技术降低水电支出,减量化处理减少清掏频率,便于农民自行还田利用,进一步降低维护成本。 获得UNICEF(联合国儿童基金会) 2024imaGen Ventures全球挑战赛,最终十佳项目(中国唯一团队),获得国际可持续专家一致好评,5月份正式发布。
清华大学 2025-05-16
高性能电机及其健康状态监测系统研发技术
团队具备成熟的高性能电机研发能力,具备瞬态有限元仿真技术、多物理场联合仿真技术、场路耦合仿真技术,能够定制开发有刷/无刷直流、感应电机、电励磁/永磁同步等各类电机,助力多家企业实现核心电机自主化、国产化。 团队研发了基于空间磁场的高性能电机健康状态在线监测系统,能够实时监测电机健康状态,即使发现电机微小故障,有效提高电机可靠性。
重庆文理学院 2025-05-19
一种通过scout ESI和CNN解码EEG运动想象四分类任务的新方法
导读东北电力大学和长春理工大学研究团队开发并实现一种结合脑电图源成像(ESI)技术和卷积神经网络(CNN)的新方法,以对运动想象(MI)任务进行分类。ESI技术采用边界元法(BEM)和加权最小范数估计(WMNE)分别解决EEG的正向和逆向问题。然后在运动皮层中创建十个scout来选择感兴趣的区域(ROI)。研究者使用Morlet小波方法从scout的时间序列中提取特征。最后,使用CNN对MI任务进行分类。实验结果:在Physionet数据库上的整体平均准确率达到94.5%,分别对左拳头、右拳头、双拳和双脚的单个准确率达到95.3%、93.3%、93.6%、96%,采用十倍交叉验证进行验证。研究人员表示,他们的研究成果与最先进的MI分类方法的结果相比,总体分类增加了14.4%。研究者为验证方法的有效性,加入了4个新的受试者进行验证,发现总体平均准确率为92.5%。此外,全局分类器适应单一对象,整体平均准确率提高到94.54%。研究者表示,他们提出的结合scout ESI和CNN的方法,提高了脑电解码四类MI任务的BCI性能。系统框架图1 系统框架图系统框架如图1所示。原始数据来自国际10-10系统的64个电极(不包括Nz、F9、F10、FT9、FT10、A1、A2、TP9、TP10、P9和P10电极),并以每秒160个样本的速度采集。根据国际10-10系统从64个通道采集原始脑电图,并使用BCI2000系统进行记录。记录的数据被分为四个独立MI任务包括左拳MI,右拳MI,双拳MI和双脚MI。首先,由于ERD在执行运动想象时在alpha和beta中不同,因此使用FIR滤波器对EEG进行了8 Hz至30 Hz的带通滤波。然后,通过计算包含正问题和逆问题的源,将传感器空间的活动转化为源空间的活动。接下来,创建scout并提取特征。研究者在运动皮层中创建了10个scout,因为我们只关心与运动相关的活动。十个scout中的每一个都代表了可用源空间中的一个感兴趣的区域(ROI),并且是定义在皮层表面或头部体积上的偶极子的子集。左脑的scout称为L1、L2、L3、L4、L5,右脑的scout称为R1、R2、R3、R4、R5。利用JTFA从10个scout的源时间序列中提取特征。最后,利用CNN对时频图进行分离并进行分类。实验在实验中,研究人员仅使用了随机选择的十个受试者的MI trail (S5,S6,S7,S8,S9,S10,S11,S12,S13,S14)。这里用于分析的数据集包含每个受试者84次试验,每一类包含21次试验。在记录64通道脑电图时,受试者执行了不同的运动想象任务。每个受试者针对以下四个任务中的每一个执行了3轮21试验:当目标出现在屏幕左侧时,受试者想象打开和合上相应的拳头,直到目标消失。然后受试者放松。当目标出现在屏幕的右侧时,受试者想象打开和合上相应的拳头,直到目标消失。然后受试者放松。当目标出现在屏幕顶部时,受试者想象打开和合上双手的拳头,直到目标消失。然后受试者放松。当目标出现在屏幕底部时,目标会想象双脚张开和合拢,直到目标消失。然后受试者放松。为了统一数据维数,研究者选择了4s的数据,因为每次想象任务的执行时间都在4s左右。此外,脑电图任务是分开的,研究人员在实验中将左拳,右拳,双拳和双脚MI任务分别称为T1,T2,T3和T4。图2 scout命名左右运动想象的scout分别命名为L1、L2、L3、L4、L5、R1、R2、R3、R4、R5,如图2所示。10个scout每一个都被扩展到40个顶点,每个顶点只有一个源。L1区域对应40个信号,其他scout也一样。在计算了来源后,研究者在运动皮层中创建了十个scout,如图3所示。图3 创建10个scout使用ESI计算十个受试者(S5、S6、S7、S8、S9、S10、S11、S12、S13、S14)每次试验的四个任务(T1、T2、T3、T4)的源。对于这四项任务中的每一项,每个受试者每次都要进行7次测试(#1,#2,#3,#4,#5,#6,#7)。展示了第一个步的10个被试的10个scout的4项任务的来源。然后提取10个scout的时间序列进行进一步分析。特征提取在计算源之后,研究人员在运动皮层中创建了包含40个源的10个scout,并提取了scout的时间序列。如图4所示为提取R5 scout时间序列作为示例。图的右边显示了R5 scout的时间序列。本文利用小波变换从scout时间序列中提取特征。图4 提取R5 scout时间序列作为示例在这项研究中,研究者提出利用CNN来解决运动想象任务分类的问题。该模型基于Schirrmeister等提出的Deep ConvNet架构,该网络模型由一个六层卷积网络组成,其中两个最大池层和三个全连接层,如图5所示。图5对于Physionet数据库,研究者首先采用Deep ConvNet架构,包括四个卷积层、四个最大池层和一个全连接层。在实验中,研究者依据经验使用两个最大池化层。并尝试了不同数量的卷积层和完全连接层。时频图利用Morlet小波方法得到了scout的特征。对于每个任务,R5 scout的时频图如图6所示。包含时间和频率互补的时频分析方法提供了时域和频域的联合分布信息,清晰地描述了信号频率与时间的关系。图6 R5 scout的时频图显然,只有部分时频映射是红色的,表明每个任务只对特定的频率和时间敏感。由于图的数量比较大,研究者使用CNN来选择和学习这些图中最基本的特征。研究人员随机选择了几个样本,并将一些特征图可视化,作为MI任务的学习表示,如图7所示。图7为了获得有效的结果,将数据集分为90%作为训练集,其余10%作为测试集。首先,将十个受试者的数据集(总共19320个样本)分为17388个样本以训练所提出的CNN模型,以及1932个样本以验证模型的有效性。在实验中,研究者还选择了另外四个受试者的数据集以增加数据集的规模(27048个样本),其中24343个样本是训练集,其他样本是测试集。在选定的scout上对所提出的CNN架构进行了十次训练和测试,以验证所提出模型的鲁棒性。图8(a)显示了10个scout中每个的全局平均精度。图8 统计结果R5的全局平均精度最高,达到94.5%,而L2的全局平均精度最低,为91.3%。对应L1、L3、L4、L5、R1、R2、R3、R4的整体准确率分别为92.4%、92.5%、93.6%、91.9%、93.0%、91.8%、92.1%、92.6%。所有scout的总体精度均在91%以上,标准差均在0.20%以下。图8(b)显示了十个scout中每个scout四个MI任务的组级统计结果及其标准差。一般来说,R5表现的要比其他的好,而L2在迭代2000中表现最差。标准差较小,说明这些精度更接近平均值且稳定。图9 统计结果图9(a)显示了带有标准差的混淆矩阵,说明了group level分类结果。T1、T2、T3和T4的全局平均精度峰值分别为95.3%、93.3%、93.6%和96.0%。R5 scout的四个MI任务中的每一个都如图9(b)所示。通过改变训练集和测试集顺序的10次试验,确定了scoutR5的性能,结果如图10(a)和(b)所示。在10次试验中,scout R5的T1、T2、T3、T4的平均准确率分别为93.3%、93.8%、94.2%、94.1%。换句话说,四个任务中每一个的平均准确率都超过了93%。全局平均准确率为93.7%。10次试验结果表明,该方法对scout R5的分类效果较好。从以上结果可以清楚地看出,R5 scout在四种MI任务的分类中扮演着最重要的角色。因此,选择R5对四个MI任务进行分类。图 10图11. (a)是不同模型的全局平均准确性的比较。可以发现,该研究提出的模型可以达到最大的精度。从图11. (b)不同模型的ROC曲线可以看出提出的模型比其他模型表现更好。©不同模型T1上的精度比较。(d)不同模型T2的精度比较。(e)不同模型T3的精度比较。(f)不同型号T4的精度比较。图11 不同模型的精度比较结论东北电力大学和长春理工大学研究团队开发并实现一种结合脑电图源成像(ESI)技术和卷积神经网络(CNN)的新方法。该方法可以对运动想象(MI)任务进行分类。实验结果表明,他们的研究成果与最先进的MI分类方法的结果相比,总体分类增加了14.4%。研究者加入了4个新的受试者进行验证来验证方法的有效性。研究者表示,他们提出的结合scout ESI和CNN的方法,提高了脑电解码四类MI任务的BCI性能。论文信息:A novel approach of decoding EEG four-class motor imagery tasks via scout ESI and CNN
东北电力大学 2021-04-10
教育部关于印发《高等学校实验室安全分级分类管理办法(试行)》的通知
本办法中的实验室,是指隶属于高校从事教学、科研等实验、实训活动的场所及其所属设施,以房间为管理单元。中试性质和工业化放大性质的试验场所及其所属设施不在本办法管理范围内,高校如涉及相关场所应根据相关法律法规及标准规范制定相关管理办法。
教育部 2024-04-22
高精度图像对焦伺服控制器及显微成像系统
        技术成熟度:技术突破         领域存在着景深影响效率的突出问题,本产品以高性能异构处理器为核心运算单元,以嵌入式手段通过视觉流与控制流的严格对位,高性能实时完成视频控制信息的结算,并直接输出电机驱动信号控制相关执行机构完成闭环控制。         本产品主要面向高性能伺服闭环控制的视频应用领域,能够显著提升显微工业自动化领域的视频对焦及对位处理的效率及精度,亦可实现宏观领域的视觉嵌入化控制闭环应用。         意向开展成果转化的前提条件:中试放大及产业化工艺开发资金支持
东北师范大学 2025-05-16
首页 上一页 1 2
  • ...
  • 13 14 15
  • ...
  • 538 539 下一页 尾页
    热搜推荐:
    1
    云上高博会企业会员招募
    2
    64届高博会于2026年5月在南昌举办
    3
    征集科技创新成果
    中国高等教育学会版权所有
    北京市海淀区学院路35号世宁大厦二层 京ICP备20026207号-1