高等教育领域数字化综合服务平台
云上高博会服务平台 高校科技成果转化对接服务平台 大学生创新创业服务平台 登录 | 注册
|
搜索
搜 索
  • 综合
  • 项目
  • 产品
日期筛选: 一周内 一月内 一年内 不限
昆明LifeSize丽视高清视频会议系统
产品详细介绍睿启科技全国服务热线:400-0137088,www.cqruiqi.com宝利通西南唯一认证总代理;网络通讯专家;专业POLYCOM宝利通视频会议,会议电话,LifeSize丽视高清视频会议系统集成。宝利通全线产品西南销售服务中心! 原装正品 !! 请在购买宝利通POLYCOM时认清正规渠道,以确保原厂三年质保!如何鉴别宝利通polycom音频产品正品与仿冒伪劣、水-货:欢迎登陆 http://www.cqruiqi.com 联系我们:睿启科技全国服务热线:400-0137088成都公司:028-85587133  13908187205(王先生)重庆公司:023-67094476  13983067833(王先生)    QQ:228931972
重庆睿启科技有限公司 2021-08-23
一种通过scout ESI和CNN解码EEG运动想象四分类任务的新方法
导读东北电力大学和长春理工大学研究团队开发并实现一种结合脑电图源成像(ESI)技术和卷积神经网络(CNN)的新方法,以对运动想象(MI)任务进行分类。ESI技术采用边界元法(BEM)和加权最小范数估计(WMNE)分别解决EEG的正向和逆向问题。然后在运动皮层中创建十个scout来选择感兴趣的区域(ROI)。研究者使用Morlet小波方法从scout的时间序列中提取特征。最后,使用CNN对MI任务进行分类。实验结果:在Physionet数据库上的整体平均准确率达到94.5%,分别对左拳头、右拳头、双拳和双脚的单个准确率达到95.3%、93.3%、93.6%、96%,采用十倍交叉验证进行验证。研究人员表示,他们的研究成果与最先进的MI分类方法的结果相比,总体分类增加了14.4%。研究者为验证方法的有效性,加入了4个新的受试者进行验证,发现总体平均准确率为92.5%。此外,全局分类器适应单一对象,整体平均准确率提高到94.54%。研究者表示,他们提出的结合scout ESI和CNN的方法,提高了脑电解码四类MI任务的BCI性能。系统框架图1 系统框架图系统框架如图1所示。原始数据来自国际10-10系统的64个电极(不包括Nz、F9、F10、FT9、FT10、A1、A2、TP9、TP10、P9和P10电极),并以每秒160个样本的速度采集。根据国际10-10系统从64个通道采集原始脑电图,并使用BCI2000系统进行记录。记录的数据被分为四个独立MI任务包括左拳MI,右拳MI,双拳MI和双脚MI。首先,由于ERD在执行运动想象时在alpha和beta中不同,因此使用FIR滤波器对EEG进行了8 Hz至30 Hz的带通滤波。然后,通过计算包含正问题和逆问题的源,将传感器空间的活动转化为源空间的活动。接下来,创建scout并提取特征。研究者在运动皮层中创建了10个scout,因为我们只关心与运动相关的活动。十个scout中的每一个都代表了可用源空间中的一个感兴趣的区域(ROI),并且是定义在皮层表面或头部体积上的偶极子的子集。左脑的scout称为L1、L2、L3、L4、L5,右脑的scout称为R1、R2、R3、R4、R5。利用JTFA从10个scout的源时间序列中提取特征。最后,利用CNN对时频图进行分离并进行分类。实验在实验中,研究人员仅使用了随机选择的十个受试者的MI trail (S5,S6,S7,S8,S9,S10,S11,S12,S13,S14)。这里用于分析的数据集包含每个受试者84次试验,每一类包含21次试验。在记录64通道脑电图时,受试者执行了不同的运动想象任务。每个受试者针对以下四个任务中的每一个执行了3轮21试验:当目标出现在屏幕左侧时,受试者想象打开和合上相应的拳头,直到目标消失。然后受试者放松。当目标出现在屏幕的右侧时,受试者想象打开和合上相应的拳头,直到目标消失。然后受试者放松。当目标出现在屏幕顶部时,受试者想象打开和合上双手的拳头,直到目标消失。然后受试者放松。当目标出现在屏幕底部时,目标会想象双脚张开和合拢,直到目标消失。然后受试者放松。为了统一数据维数,研究者选择了4s的数据,因为每次想象任务的执行时间都在4s左右。此外,脑电图任务是分开的,研究人员在实验中将左拳,右拳,双拳和双脚MI任务分别称为T1,T2,T3和T4。图2 scout命名左右运动想象的scout分别命名为L1、L2、L3、L4、L5、R1、R2、R3、R4、R5,如图2所示。10个scout每一个都被扩展到40个顶点,每个顶点只有一个源。L1区域对应40个信号,其他scout也一样。在计算了来源后,研究者在运动皮层中创建了十个scout,如图3所示。图3 创建10个scout使用ESI计算十个受试者(S5、S6、S7、S8、S9、S10、S11、S12、S13、S14)每次试验的四个任务(T1、T2、T3、T4)的源。对于这四项任务中的每一项,每个受试者每次都要进行7次测试(#1,#2,#3,#4,#5,#6,#7)。展示了第一个步的10个被试的10个scout的4项任务的来源。然后提取10个scout的时间序列进行进一步分析。特征提取在计算源之后,研究人员在运动皮层中创建了包含40个源的10个scout,并提取了scout的时间序列。如图4所示为提取R5 scout时间序列作为示例。图的右边显示了R5 scout的时间序列。本文利用小波变换从scout时间序列中提取特征。图4 提取R5 scout时间序列作为示例在这项研究中,研究者提出利用CNN来解决运动想象任务分类的问题。该模型基于Schirrmeister等提出的Deep ConvNet架构,该网络模型由一个六层卷积网络组成,其中两个最大池层和三个全连接层,如图5所示。图5对于Physionet数据库,研究者首先采用Deep ConvNet架构,包括四个卷积层、四个最大池层和一个全连接层。在实验中,研究者依据经验使用两个最大池化层。并尝试了不同数量的卷积层和完全连接层。时频图利用Morlet小波方法得到了scout的特征。对于每个任务,R5 scout的时频图如图6所示。包含时间和频率互补的时频分析方法提供了时域和频域的联合分布信息,清晰地描述了信号频率与时间的关系。图6 R5 scout的时频图显然,只有部分时频映射是红色的,表明每个任务只对特定的频率和时间敏感。由于图的数量比较大,研究者使用CNN来选择和学习这些图中最基本的特征。研究人员随机选择了几个样本,并将一些特征图可视化,作为MI任务的学习表示,如图7所示。图7为了获得有效的结果,将数据集分为90%作为训练集,其余10%作为测试集。首先,将十个受试者的数据集(总共19320个样本)分为17388个样本以训练所提出的CNN模型,以及1932个样本以验证模型的有效性。在实验中,研究者还选择了另外四个受试者的数据集以增加数据集的规模(27048个样本),其中24343个样本是训练集,其他样本是测试集。在选定的scout上对所提出的CNN架构进行了十次训练和测试,以验证所提出模型的鲁棒性。图8(a)显示了10个scout中每个的全局平均精度。图8 统计结果R5的全局平均精度最高,达到94.5%,而L2的全局平均精度最低,为91.3%。对应L1、L3、L4、L5、R1、R2、R3、R4的整体准确率分别为92.4%、92.5%、93.6%、91.9%、93.0%、91.8%、92.1%、92.6%。所有scout的总体精度均在91%以上,标准差均在0.20%以下。图8(b)显示了十个scout中每个scout四个MI任务的组级统计结果及其标准差。一般来说,R5表现的要比其他的好,而L2在迭代2000中表现最差。标准差较小,说明这些精度更接近平均值且稳定。图9 统计结果图9(a)显示了带有标准差的混淆矩阵,说明了group level分类结果。T1、T2、T3和T4的全局平均精度峰值分别为95.3%、93.3%、93.6%和96.0%。R5 scout的四个MI任务中的每一个都如图9(b)所示。通过改变训练集和测试集顺序的10次试验,确定了scoutR5的性能,结果如图10(a)和(b)所示。在10次试验中,scout R5的T1、T2、T3、T4的平均准确率分别为93.3%、93.8%、94.2%、94.1%。换句话说,四个任务中每一个的平均准确率都超过了93%。全局平均准确率为93.7%。10次试验结果表明,该方法对scout R5的分类效果较好。从以上结果可以清楚地看出,R5 scout在四种MI任务的分类中扮演着最重要的角色。因此,选择R5对四个MI任务进行分类。图 10图11. (a)是不同模型的全局平均准确性的比较。可以发现,该研究提出的模型可以达到最大的精度。从图11. (b)不同模型的ROC曲线可以看出提出的模型比其他模型表现更好。©不同模型T1上的精度比较。(d)不同模型T2的精度比较。(e)不同模型T3的精度比较。(f)不同型号T4的精度比较。图11 不同模型的精度比较结论东北电力大学和长春理工大学研究团队开发并实现一种结合脑电图源成像(ESI)技术和卷积神经网络(CNN)的新方法。该方法可以对运动想象(MI)任务进行分类。实验结果表明,他们的研究成果与最先进的MI分类方法的结果相比,总体分类增加了14.4%。研究者加入了4个新的受试者进行验证来验证方法的有效性。研究者表示,他们提出的结合scout ESI和CNN的方法,提高了脑电解码四类MI任务的BCI性能。论文信息:A novel approach of decoding EEG four-class motor imagery tasks via scout ESI and CNN
东北电力大学 2021-04-10
高清数字视频及宽带网络ADC芯片设计
主要功能和应用领域:主要应用在数字视频芯片(DVB,DAB,DMB等数字视频广播标准)和通信网络(WLAN,WiFi,WiMAX等)领域。具有极为广泛的用途和应用价值。 特色及先进性:在满足数字视频芯片和通信网络要求下,采用了自创的校正方法,实现了更低的功耗、大大节省了芯片面积、降低了芯片的复杂度、提高了芯片的稳定性、不易受外界环境如温度、电源电压和工艺的影响,使性能更加出色。 技术指标:采样速率200MSps,分辨率10-Bit,ENOB达到8.7-Bit以上(±10%电源电压变化和-40~125度温度变化),总体功耗 < 100mW。 实施后可取得的效果:此类ADC芯片应用领域极广,中高端领域均有大量且稳定的需求。一旦形成产品,产量和销售极其可观。现在市场上此类ADC芯片主要掌握在国外大公司手里,定价相对较高,如果能够实现同等性能下更低的定价或者同等价位但是更出色的性能,将有巨大的市场。
电子科技大学 2021-04-10
高清数字视频及宽带网络ADC芯片设计
ADC芯片
电子科技大学 2021-04-10
一种基于视频的交通流量获取方法
本发明公开了一种基于视频的交通流量获取方法,首先通过绘制虚拟线框,并获取一个检测区域;然后对每一帧检测区域图像提取运动前景并通过腐蚀和膨胀、连通区域过滤后,提取每一块连通区域中的SURF(Speeded?up?robust?features)特征点;最后,提取每一块连通区域的最小外接矩形,当且仅当当前帧的某一连通区域不在虚拟线框内,且该块通区域块与上一帧中某个与虚拟线框相交的连通区域块的SURF特征点匹配达到90%以上,则认为有一车辆通过虚拟线框,从而完成交通流量的获取。
电子科技大学 2021-04-10
基于脉搏波/视频脉搏波的人体连续血压检测
西安交通大学 2021-04-10
一种基于视频的生猪检测方法和系统
本发明提供了一种基于视频的生猪检测方法和系统,该方法包括:S1,通过对实时图像对应的二值图像进行区域连通性分析,获取前景目标的第一轮廓和所述第一轮廓的形心;S2,通过建立所述实时图像的混合高斯背景模型,获取所述前景目标的第二轮廓和所述第二轮廓的形心;S3,根据所述第二轮廓对所述第一轮廓进行修正,根据所述第二轮廓的形心对所述第一轮廓的形心进行修正。通过区域连通性分析和混合高斯背景模型,能够提取完整、准确的目标生猪轮廓,获取目标生猪运动行为的视频,为后续目标生猪跟踪和行为识别提供理论依据,还为规模化生猪养殖进行实时监控和分析提供有效解决方案。
中国农业大学 2021-04-11
基于社会面视频监控的车辆行为识别系统
本项目面向交通管理行业,基于公共视频监控数据源,快速感知移动(运动)目标并在此基础上对车辆的异常行为进行识别(逆行、压线、违法掉头、违停、违法占道行驶等多种交通违法行为),同时能够记录移动轨迹,具体场景参照附件所提供的一组照片。该成果经过完善和产品(产业化)后,可以直接为城市交通管理提供技术支持。
北京理工大学 2021-01-12
一种基于视频技术的目标识别装置
一种基于视频技术的目标识别装置,包括固定杆,所述固定杆横截面上端形成空腔,下端靠近两侧分别为支撑座,两支撑座之间形成通道,中空T形杆水平段置于所述空腔中,竖直段穿过所述通道并与位于固定杆下方的监视设备固定连接,环形链条带动中空T形杆沿固定杆在水平方向上移动。通过将监视设备与中空T形杆连接并安装在固定杆下方,用环形链条带动监视设备在水平方向上移动,从而扩大了监视设备的监控范围并实现精准监控。
安徽建筑大学 2021-01-12
一种时空连续的视频背景修复方法
本发明公开了一种时空连续的视频背景修复技术;本发明首先通过由粗到精的运动场传播方法,估 计视频内空洞部分的运动场,使整体运动场自然连贯;此后,以运动场为引导,本发明通过基于马尔科 夫随机场的优化过程填充空洞部分,最优地将临近帧内的已知像素排列到缺失部分内;最后,基于光照 迁移思想,本发明提出了一种光照调整方法,将空洞外的光照条件有效传播到内部,消除修复后空洞内 的光照不连续现象;与现有的视频修复方法相比,本发明能够更好地修复深度严重不连续的视频
武汉大学 2021-04-14
首页 上一页 1 2
  • ...
  • 21 22 23
  • ...
  • 337 338 下一页 尾页
    热搜推荐:
    1
    云上高博会企业会员招募
    2
    64届高博会于2026年5月在南昌举办
    3
    征集科技创新成果
    中国高等教育学会版权所有
    北京市海淀区学院路35号世宁大厦二层 京ICP备20026207号-1