高等教育领域数字化综合服务平台
云上高博会服务平台 高校科技成果转化对接服务平台 大学生创新创业服务平台 登录 | 注册
|
搜索
搜 索
  • 综合
  • 项目
  • 产品
日期筛选: 一周内 一月内 一年内 不限
KINGOSOFT高校教学综合管理服务平台
青果软件集团有限公司 2022-08-02
KINGOSOFT中职学校智慧校园云平台
青果软件集团有限公司 2022-08-02
教学大数据分析展示平台
教学大数据分析展示平台作为专为高校教研开发的数据挖掘分析应用系统,致力于通过对学校教学中的数据的科学采集、存储,智能建模、分析,辅助学院管理员及时把控教学进度,让教师科学制定教学方案,让学生精准认知自我。
安徽爱学堂教育科技有限公司 2022-08-04
研究生论文盲审平台
研究生论文盲审管理系统,为学院教务管理层提供高效的论文盲审分配机制;协助跟进论文盲审进度及状态,及时有效督促盲审工作开展。专家库建设为论文评审提供了学院专属专家资源库。
安徽爱学堂教育科技有限公司 2022-08-04
U+新工科智慧云平台
通过教学质量基于事实数据进行动态诊断和改进,提供教师、学生和管理者三个维度的数据分析 , 承载教与学全过程记录,多维度形成性评价数据分析,助力高校工程教育专业认证。 经典案例  
青软创新科技集团股份有限公司 2022-07-06
MMX5苹果采摘开发平台
MMX5苹果采摘平台基于 ROS 开源系统,集成自主移动底盘及机械臂运动规划。机器人接收到移动抓取任务后,首先根据预先建立的环境模型基于 A* 算法规划最优轨迹,机器人沿着规划的最优轨迹,使用最优化算法进行运动规划,并规避运动过程中障碍物,控制机器人朝目标移动。到达抓取任务目标点后,利用 3D 相机,使用基于 OpenCV 及 YOLOV5来识别及定位目标,根据检测到的目标位姿,利用 MoveIt! 及 Open Motion Planning Library 完成机械臂运动规划,并将规划后的轨迹发送给机械臂控制器,完成抓取操作。
深圳史河机器人科技有限公司 2022-11-03
AI协同创新实验云平台
Al协同创新实验云是Al教学实验实训协同工具,涵盖真实行业项目的教学课程、授课教案、实验教学资源、硬件、平台等,可满足人工智能专业的学生了解行业真实案例中从起始阶段、细化阶段、构建阶段、业务环境、需求分析、技术架构选型等等各方面的项目细节,在线完成分类、建模、分析、可视化、结果输出等任务,并支持私有化部署和云端协同,帮助院校开展人工智能应用研发。
新大陆教育 2022-09-19
ANSYS自动驾驶仿真验证平台
产品详细介绍1.系统方案ANSYS高精度自动驾驶仿真验证平台提供了基于物理的三维场景建模、基于语义的道路事件建模、基于物理光学属性的摄像头和激光雷达的仿真、基于物理电磁学属性的毫米波雷达的仿真,从而实现多传感器、多交通对象、多场景、多环境的实时闭环仿真。其主要功能如下:1)开放式交通场景编辑模块,自定义设定道路和交通场景,可以自定义设定道路两旁的建筑物,绿化带等等;2)可以根据用户需求,自定义设定道路场景上的交通流,可以自定义设定道路上来往的车辆,行人和交通指示灯;3)可以根据客户需求,自行设定主动驾驶(或算法控制车辆)的车辆动力学参数;4)支持高精度的三维场景仿真和基于环境光的模拟;5)支持高精度的物理属性的传感器仿真,包括毫米波雷达的仿真、摄像头的仿真和激光雷达的仿真;6) 此外,考虑到能更加逼真地反映“人—车—路”在环仿真测试,该平台还提供了开放的接口,可以与实物传感器、VR设备、控制器、各类测试数据进行无缝的联入,从而更好的满足不同级别、不同目标的测试仿真要求。2.      系统构成下面分别介绍本平台各模块的构成。2.1.自定义道路环境ANSYS自动驾驶仿真平台提供了一套自定义道路场景的设计工具,具备直道、弯道、曲线等设计能力,支持道路宽度、长度、半径、方向、车道数量、车道方向、车道限速、车道类型等的编辑。同时,该设计工具支持高架等不同高度道路以及不同坡度倾角、道路交叉口、匝道、并道等的定义。还支持车道线的自定义化建模,包括单线、双线、实线、虚线、车道线纹理、颜色等一系列车道线类型。同时,软件集成丰富的环境模型库,如树木、建筑物、交通标识、路灯、电线杆、绿化带、动物,施工路段障碍物和设施、交通行人等对象模型,可根据用户需求对道路场景进行快速建模。除了自定义场景外,ANSYS自动驾驶仿真平台还支持导入OpenStreetMap等3D高精地图,自动生成与地图匹配的道路模型。2.2.自定义交通场景ANSYS自动驾驶仿真平台还提供了快捷的基于语义的道路交通流设计,包括车道行驶规则、车辆及行人行为、交通指示牌行为,以及某一时刻各交通对象交通行为的精确数据输出。此外,交通对象的行为也可以人为定义,包含如车辆驾驶行为、突然变道、突然加速、行人乱闯红灯和人行道等一系列场景的仿真,同时软件内部车辆和行人之间可自定义交互与否,即可仿真自动避让行人和忽视行人发生碰撞等行为。软件内嵌脚本语言定义,同时也支持如Python,C++等语言的接口控制来定义交通行为。如下图所示,为通过语义级的脚本语言来定义车辆和行人等交通对象的行为。2.3.构建车辆动力学模型除了上述的道路场景以及交通流的搭建能力之外,ANSYS自动驾驶仿真平台同样提供了基于总成特性的车辆动力学模型,并提供了以下性能参数的配置:底盘参数,如长宽高、轴间距、重量等;性能参数,如最大时速、引擎转速等;转向参数;轮毂参数; ……同时,软件还提供了各类特性参数的预定义实验数据,方便用户对所定义车辆的特性进行快速的测试验证。相关的实验数据有:加速特性实验数据;刹车特性实验数据;转弯特性实验数据;方向盘特性实验数据;侧风实验数据;障碍物和转弯实验数据;……ANSYS自动驾驶仿真平台还支持外部车辆动力学模型的导入和集成,如CarSim车辆动力学模型,以及用户自研的车辆动力学模型。2.4.基于物理真实的三维场景建模在无人车辆的物理仿真中,除了前述关于道路场景,交通流以及车辆动力学模型的建模能力外,ANSYS自动驾驶仿真平台的最大特点和优势在于提供基于物理真实的三维场景建模和ray-tracing的图形算法。使得上述的场景的构建与物理真实达到一个高匹配度,以此对无人车中传感器的感知和后期控制算法的验证提供了很好的准确性和真实性,以减少场景搭建的缺陷所带来的传感器和感知算法的决策错误。在整个基于物理真实的建模平台搭建中,ANSYS 自动驾驶仿真验证平台会通过对以下物理真实参数的定义和基于ray-tracing的图形算法来保证仿真的准确性和真实性:环境光源的定义,包括:天空的照度值; 基于经纬度的太阳光的照度和位置定义;环境场景中各种点光源以及面光源的定义(光谱+IES+XMP);车辆照明系统的光源定义(光谱+IES+XMP);环境场景中包括道路,建筑,车身等一系列材料表面光学属性的定义。其中各个光源的定义通过导入相关定义文件,如下图所示:如前述所讲,材料表面光学属性通过ANSYS开发的一套OMS材料物理光学属性BRDF测量仪硬件设备,对用户所需仿真的场景材料库进行探测,并将探测所得材料表面光学属性BSDF函数附在前述场景建模的所属材质表面,从而在ray-tracing的图形算法下仿真得到一整套完整的考虑外部环境光以及物体表面光学属性的物理真实的三维场景建模。同时ANSYS自动驾驶仿真平台还提供丰富的材料库供客户场景建模使用。2.5.基于物理真实的多传感器模型融合和系统级仿真在无人车辆中,除了前述ANSYS自动驾驶仿真平台能提供的基于物理真实的场景建模能力外,同样集成了包含摄像头,激光雷达和毫米波雷达的感知系统模型仿真。可以实现物理级的实时动态仿真,即在基于物理真实的道路场景以及交通流定义完成,添加环境光源以及材料表面光学属性后,通过搭建智能驾驶模拟器来实现感知系统的动态实时仿真验证,研究环境以及交通流对感知系统的影响。同时,ANSYS自动驾驶仿真平台还支持如C++/ANSYSSCADE/SIMULINK等外部接口的控制算法来对传感器的输出进行数据处理和验证,包括SIL, HIL等多级别仿真验证。1)      基于物理的摄像头系统级仿真在基于物理的摄像头系统级仿真阶段,ANSYS自动驾驶仿真平台通过定义摄像头的如下物理参数得到RAW图像用以对摄像头供应商进行验证或者硬件在环系统的仿真验证。摄像头系统级仿真参数模型参照EMVA1288标准建模,主要包含: 镜头模型镜头材料; 焦距;孔径光阑;镜片透过率函数; 畸变等;成像仪模型分辨率;尺寸;曝光时间; 噪声系数;量子效率;增益等;处理器模型 摄像头位置风挡参数入射角;折射率;厚度;透过率函数等。基于以上物理参数的建模以及对场景环境光源的考虑和材料表面光学属性的影响,在系统级仿真中摄像头输出与真实匹配度高度一致的RAW图像。如下图所示ANSYS自动驾驶仿真平台的摄像头实时输出提供给感知算法的车道线识别。2)      基于物理的激光雷达系统级仿真类似于摄像头的系统级仿真,激光雷达的系统级仿真通过准确定义的激光雷达参数,通过发射和接收生成的点云图对用户构建的场景和交通流进行感知探测并验证相关感知算法。支持多种激光雷达模式(扫描式,旋转式)。激光雷达的建模参数包括:扫描式最大和最小探测距离; 横向视场角;纵向视场角;分辨率等;旋转式最大和最小探测距离;旋转速率;最大线数等;如下图所示为ANSYS自动驾驶仿真平台的激光雷达实时探测深度图与摄像头输出RAW图像相匹配。3)      基于物理的毫米波雷达系统级仿真毫米波雷达的系统级别仿真通过ANSYS特有的ROM降阶技术,以HFSS软件为模拟工具,可以通过内嵌接口工具与ANSYS自动驾驶仿真平台结合实现毫米波雷达与摄像头和激光雷达的同步实时仿真,得到雷达回波的成像结果并进行分析。2.6.实时闭环仿真系统如前述通过对环境、场景、交通流的建模构造出无人车辆的运行场景和轨迹,同时耦合如摄像头、激光雷达和毫米波雷达的感知系统的仿真,通过开放的API接口,可以方便的进行外部自动驾驶算法的集成。从而形成实时闭环的驾驶系统仿真。2.7.基于物理的智能头灯照明仿真系统随着智能驾驶辅助系统(ADAS)的逐渐普及和行业发展,车辆智能化头灯照明系统也逐渐成为当前行业的发展趋势和应用热点。ANSYS自动驾驶仿真平台Headlamp模块通过ANSYS特有的物理级仿真引擎,为客户提供真实的车辆头灯路面光型分布测试和动态驾驶与智能头灯仿真测试。除了前述在三维环境建模中通过ANSYS OMS设备进行材料表面光学属性的采集与赋值外,为了保证接近真实的物理仿真光型,Headlamp模块同样对光源进行仿真模拟,包括车灯光源,自然光光源,路灯光源等。定义方式包含如:光源光强分布IES文件;光源光谱spectrum文件;光源强度等;如下图所示分别为不同光源的光谱分布和车灯光源的IES定义文件。基于环境和光源的物理仿真,可以实现车辆前照灯远光,近光,侧灯的切换以及光强的实时切换控制,同时丰富的光度学分析工具,包含色度学,光度学,等照度线,等照度区域等信息便于分析光分布情况。支持的25米目标墙光分布信息用于分析验证头灯光分布是否符合标准。除了静态光型分布验证,ANSYS Headlamp开放的如C++,SCADE,Simulink的光型数据接口支持客户自定义化的智能头灯开发与验证,同时丰富的动态驾驶模拟和场景仿真也可以帮助客户实现实时的动态驾驶头灯验证,如AFS,ADB,矩阵头灯,像素头灯等智慧头灯的仿真与测试验证,基于IIHS动态头灯测试标准的夜间测试验证。ANSYS VRXPERIENCE 驾驶仿真软件由SCANeR™提供技术支持要满足自动驾驶车辆的严格安全标准,需要测试数百万种情境下的世界、交通和天气的所有复杂交互。物理测试需要数十亿英里的真实环境驾驶,这需要数十年开发时间和巨额成本。ANSYS VRXPERIENCE 驾驶仿真软件由经 AVSimulation验证的 SCANeRTM 提供技术支持。这是一款开放式的可扩展模块化仿真解决方案,用于构建真实度极高的虚拟环境。ANSYS VRXPERIENCE 驾始仿真软件由 SCANeR 提供技术支持,可根据各种目标和性能要求进行测试。它集成了高清 (HD) 地图生成的道路状况与资料库、交通状况、天气情况及车辆动力学等内容。任何自定义车辆模型都可以通过 FMI、C/C++、ANSYS Twin Builder 或 Simulink 进行连接。SCANeR 支持的 VRXPERIENCE 驾驶仿真软件还集成了所有驾驶员硬件模拟器界面,帮助打造出最具真实感的驾驶体验。SCANeR是一个全面的交通场景仿真软件套件,专门用于汽车和运输仿真,解决ADAS,自动驾驶车辆,HMI和前灯使用案例的测试和驾驶问题。SCANeR提供构建超逼真虚拟世界所需的所有工具和模型:道路环境,车辆动力学,交通,传感器,真实或虚拟驾驶员(自动驾驶),车前灯,天气状况和场景脚本。它不是一个“黑匣子”工具,而是一个真正的科研实验专用的模块化仿真平台,灵活,可扩展和开放,满足研究人员和工程师的需求。它的多功能性使得整个设置成为可能:驱动模拟器Simulator,模型在环MIL,软件在环SIL,硬件在环HIL。ANSYS VRX平台是一个全面的交通场景仿真软件套件,专门用于汽车和运输仿真,解决ADAS,自动驾驶车辆,HMI和前灯使用案例的测试和驾驶问题。ANSYS VRX平台提供构建超逼真虚拟世界所需的所有工具和模型:道路环境,车辆动力学,交通,传感器,真实或虚拟驾驶员(自动驾驶),车前灯,天气状况和场景脚本。它不是一个“黑匣子”工具,而是一个真正的科研实验专用的模块化仿真平台,灵活,可扩展和开放,满足研究人员和工程师的需求。它的多功能性使得整个设置成为可能:驱动模拟器Simulator,模型在环MIL,软件在环SIL,硬件在环HIL。欧洲2.0旨在满足场景密度要求,同时通过利用SCANeR™的新磁贴系统管理,可以创建有效的场景控制。由于其大尺寸和地形多样性,欧洲2.0提供了许多机会。使用欧洲2.0,您将能够使用各种实验(ADAS的开发,管理事件的研究等),以便在许多移动车辆上快速和长时间驾驶:公路,高速公路,山脉(雪,曲线和银行) ,城市,休息区等由于SCANeR™即将推出的新“国际化”功能,客户可以自动将标志和道路标记更改为其他国家/地区(DE / US / MX)。使用SCANeR™studio的Terrain模式可以轻松导入GIS数据。据外媒报道,ansys宣布与avsimulation合作,将avsimulation的仿真技术与ansys的沉浸式自动驾驶仿真解决方案相结合,加快自动驾驶汽车进入市场的步伐。为了达到严格的自动驾驶安全标准,需要在数百万种场景中,测试自动驾驶汽车与周围环境、交通和天气之间的复杂互动。该测试需要对原型车进行数十亿英里详尽的物理道路测试,花费数十年的开发时间和成本。ansysvrxperience有助于减少物理原型测试,节省时间。它是ansys的沉浸式解决方案之一,结合了虚拟现实功能与物理仿真。使工程师能在日常驾驶条件下,测试、验证以及体验自动驾驶系统和车辆性能,一天之内就能完成数百万英里虚拟测试。vrxperience包括hmi测试、物理传感器仿真(包括雷达、激光雷达、摄像头和超声波)、嵌入式软件控制集成以及前照灯仿真,并与仿真数据管理和系统安全分析连接。avsimulationscaner studio嵌入vrxperience,作为其驾驶模拟器模。avsimulationscanerstudio是一个开放的、可扩展的模块化仿真解决方案。它能创建真实的虚拟世界,使用户在高性能集群或者公共云中,例如微软azure,模拟成千上万种多变的驾驶场景。scaner?融合了高清地图和资产库生成的道路、交通状况、天气条件、以及汽车动力学等。雷诺集成cae & plm工程副总裁olivier colmard表示,“虚拟样机和大规模仿真是确保自动驾驶汽车安全的关键。雷诺车队利用avsimulation及其scaner studio技术,可以在百万种驾驶场景中设计、模拟和测试自动驾驶系统,验证汽车安全性。此次合作有助于以减少物理测试,缩短上市时间,确保安全。”ansys系统事业部副总裁兼总经理eric bantegnie表示,“vrxperience与scaner驾驶模拟器结合,将使原始设备制造商、第一级和第二级客户能够快速追踪三级到五级自动驾驶汽车的创建、集成和认证。此次合作有助于汽车制造商降低开发成本,加快自动驾驶汽车交付进度。”AVSimulation与ANSYS之间的战略合作伙伴关系通过虚拟测试加速了自动驾驶汽车的设计和验证,可在一周内实现数百万英里的数字道路测试。此次合作将AVSimulation的革命性仿真技术与ANSYS的沉浸式自动驾驶模拟解决方案相结合,大大加速了自动驾驶汽车向汽车制造商推向市场的道路。作为其驾驶模拟器模块嵌入在VRXPERIENCE中,AVSimulation经过验证的SCANeR™Studio产品是一个开放且可扩展的模块化仿真解决方案,可创建超逼真的虚拟世界,使用户能够模拟数千种高性能集群或多种可变性的驾驶场景。公共云,例如Microsoft Azure。SCANeR™融合了高清地图和资产图书馆生成的道路,交通状况,天气状况,车辆动力学等。“通过这种合作伙伴关系,AVSimulation和ANSYS提供了惊人的广度和深度的技术,使汽车制造商能够大幅降低开发成本,加快向客户交付自动车辆”,ANSYS系统业务部副总裁兼总经理Eric Bantegnie说。有关官方新闻稿的详细信息:https://www.prnewswire.com/news-releases/avsimulation-and-ansys-speed-development-of-safe-autonomous-driving-for-automakers-300873669.html
北京津发科技股份有限公司 2021-08-23
ErgoLAB人机环境同步云平台
产品详细介绍ErgoLAB人机环境同步云平台,是集科学化、集成化、智能化于一体的系统工程工具与解决方案产品,可以与人、机器、环境数据进行同步采集与综合人机工效分析;尤其是人工智能时代根据人-信息-物理系统(HCPS)理论,对人-机-环境系统从人-信息系统,人-物理系统以及系统整体分别进行人机交互评估以及人因与工效学的智能评价。智能化人机环境测试云平台支持科研项目的整个工作流程,从基于云端的项目管理、实验设计、数据同步采集、信号处理与数据分析到综合统计与输出可视化报告,对于特殊领域客户可定制云端的人因大数据采集与AI状态识别。具备ErgoVR虚拟现实实时同步人因工程研究解决方案、ErgoAI智能驾驶模拟实时同步人因工程研究解决方案、ErgoSIM环境模拟实时同步人因工程研究解决方案,可以在不同的实验环境为人-机-环境研究的发展提供进一步的主客观数据支撑与科学指导。其中,云实验设计模块具备多时间轴、随机化呈现等功能、可以创建复杂的实验刺激,支持任何类型的刺激材料,包括自定义问卷、量表与实验范式(系统包含常用量表与实验范式以及数据常模,如NASA-TLX认知负荷量表、PANAS情绪效价量表、Stroop任务、MOT多目标追踪、注意力训练任务等)、声光电刺激与实时API行为编码/TTL事件标记、多媒体刺激编辑如文本、声音、图像,视频(含360度图片和视频),在线网站和手机应用程序,以及所有的原型设计材料,也支持与如下刺激实时同步采集:如场景摄像机、软件,游戏,VR,AR程序等。兼容第三方软件刺激编译软件,如E-prime,Superlab,TobiiPro Lab等。ErgoLAB人机环境同步云平台采用主客观结合多维度数据验证的方法,数据同步种类包含大脑认知数据(EEG脑机交互与脑电测量系统、fNIRS高密度近红外脑功能成像系统),视觉数据(Eyetracking视线交互与眼动追踪系统),生理信号数据(生理仪含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行为观察、肢体动作与面部表情(基本情绪、情绪效价、微表情等)数据、生物力学数据(拉力、握力、捏力、压力…),人机交互数据(包含如网页终端界面交互行为数据以及对应的键盘操作,鼠标点击、悬浮、划入划出等;移动终端界面交互行为数据以及对应的手指行为如点击、缩放、滑动等;VR终端界面人机交互行为数据及对应的双手操作拾取、丢弃、控制,VR空间行走轨迹)、以及多类型时空行为数据采集(包括室内、户外、以及VR环境不同时空的行走轨迹、行车轨迹、访问状态以及视线交互、情感反应、交互操作行为等数据采集)、以及环境数据(温度、湿度、噪音、光照、大气压、湿度、粉尘等)等客观量化数据。ErgoLAB人机环境同步云平台包含强大的数据分析模块以及广泛的认知和情感生物特征识别(如记忆,注意力,情绪反应,行为决策,以及警觉、压力等)。ErgoLAB数据分析与综合统计分析模块包含多维度人-机-环境数据综合分析、EEG脑电分析与可视化、眼动分析与可视化、行为观察分析、面部表情分析、动作姿态伤害评估与工效学分析、交互行为分析、时空行为分析、车辆与驾驶行为分析(ErgoAI驾驶版本)、HRV心率变异性分析、EDA/GSR皮电分析、RESP呼吸分析、EMG肌电分析、General通用信号分析(如SKT皮温分析、EOG眼电分析以及其他环境与生物力学信号分析)。系统具备专门的信号处理模块以及开放式信号处理接口,可以直接导出可视化分析报告以及原始数据,支持第三方处理与开发。津发科技提供定制开发服务,与人因工程与工效学分析评价领域相关的算法模型、软硬件产品与技术可深入研发,详情咨询津发科技!ErgoLAB是一种人类行为研究软件工具,可 无缝同步35种以上传感器模式的研究设计和数据收集。它支持项目的整个工作流程,从实验方法设置到数据收集和导出以进行完整的分析。毫秒级同步,您将能够从各种传感器模式(GSR,ECG,EEG,EMG,EEG,眼睛跟踪...)以及多种刺激(照片,视频,自由任务, VR体验,网站...)具有出色的时间表现。因此,您将能够轻松,准确地分析来自Excel,SPSS,MatLab等的数据。系统可提供最常用的研究设计模板,强大的数据分析平台以及广泛的认知和情感生物特征识别(例如记忆,注意力,情感价,激活和影响,参与度等) )。是为那些希望在生理数据解码和分析方面向前迈进的人而特别设计的,它提供了一种实用且可行的解决方案。同步数据采集刺激性任何类型的刺激图像,视频,体验,网站,应用程序,VR / AR设置...第三方软件刺激ErgoLAB,Eprime,Tobii Pro Lab ... 实时应用兼容LabStreamLayerBCI200,OpenVie,NeuroPype ...实时API数据分析原始数据到第三方Matlab(EEGLAB,BCILAB等)Python(MNE等)Neuroguide WE其他 高级分析工具(可选(软件分析工具情绪和认知指标Excel导出(单个和汇总)多媒体资料技术指标人类行为指标情绪生物识别 价,情绪激活,情绪影响认知生物识别 注意,记忆,参与。行为指标 鼠标跟踪,时间。眼动追踪指标 视觉注意,注视内隐动机和行为 隐式联想响应测试(IAT和启动)IPS指标 位置追踪指标表示个人 对于生物识别,时间和隐式关联:条形图和统计差异表。对于眼睛跟踪,鼠标定位和室内定位:热图,比率图,时间图,轨迹图,感兴趣的区域(首次固定时间,花费的时间,比率,重新访问,平均固定时间,以前的固定时间)和汇总的固定视频。组合式 情感定位图,结合指标的视频,刺激,摄像头和麦克风(汇总,按细分或个人汇总)。输出格式档案 所有CSV格式的生物特征识别(单独和汇总),与第三方工具(Matlab,Excell等)兼容可视化软件 生物识别可视化软件。分析间隔和感兴趣的区域。多媒体资料 包含陈述和视频以进行报告。
北京津发科技股份有限公司 2021-08-23
智能课堂教学智慧纸笔平台
产品详细介绍 对教师:纸笔围绕课堂教学场景,智能批改,增效减负,双向互动,提升学生动能和效能。 智慧纸笔平台以个人电子终端为载体的智慧课堂,开启名校联盟资源共享模式,贯穿预习、上课、作业、辅导、评测等各个学习环节,覆盖课前、课中、课后全过程,支持各种高效学习方式和师生平等互动。 具有区域视图、学校视图、班级视图、学生视图,从多维度记录学生的学习成长轨迹。 1. 传统纸笔书写,保护视力 3. 作业自动批改,减负增效 5. 精准资源推荐、提分提质 对于学生——学习问题诊断更精准;AI辅导更具个性化;伴随式成长数据驱动智能适应学习。 对于家长——指导孩子更科学;辅导孩子更有方向。 对于教师——减轻作业批改负担;教学效果反馈更即时;教学调整更有依据。 对于学校——教育进步可视化;更科学的管理;更明确的教育质量提升方向。 对于教育系统——区域教育质量检测更专业。 联系方式: 地址:广州市黄埔区科学城南翔一路62号3楼宏途教育 电话:176-8839-3738
广州宏途教育网络科技有限公司 2021-08-23
首页 上一页 1 2
  • ...
  • 51 52 53
  • ...
  • 125 126 下一页 尾页
    热搜推荐:
    1
    云上高博会企业会员招募
    2
    64届高博会于2026年5月在南昌举办
    3
    征集科技创新成果
    中国高等教育学会版权所有
    北京市海淀区学院路35号世宁大厦二层 京ICP备20026207号-1