起订量:
中级会员第5年
生产厂家北京津发科技股份有限公司是科技部认定的科技型中小企业,具有自主研发与创新能力,具备自主进出口经营权;自主研发技术、产品与服务荣获多项省部级科学技术奖励、国家软件著作权和省部级新技术新产品(服务)认证;通过了欧洲CE、美国FCC、欧盟RoHS、ISO9001、ISO14001、OHSAS18001等多项认证和防爆产品认证。
津发科技致力于实验室建设的专业化与特色化,提供实验室、实验实训及科研基地建设的全过程服务与建设方案。产品技术涵盖:认知神经科学技术、人机交互技术、可穿戴技术、人工智能技术、脑机接口技术、眼动追踪技术、虚拟现实技术、面部表情分析及状态识别技术、时空轨迹分析技术等;自主研发的人-机-环境同步云平台可实时同步采集多通道人机环境测试数据,结合大数据平台建立多模态大数据库,并采用人工智能技术相关算法实现有效的监测、识别、预测、分析和评价模型等。
多年来在军工国防领域,以及教育科研领域积极推动人因与工效学技术进步,携手众多科研工作者进行联合开发与科研实验、人才培养、学术合作与产学研融合,联合申报基金项目、科技项目等;承接和参与多项国家自然科学基金、国家重点研发计划、科技项目和标准编制;承接科研院所和高校实验室规划建设、并通过产学研方式与学术和科研机构建立合作关系,联合国家科研课题进行科技攻关,并联合开发适合中国国情的基于人工智能和虚拟现实技术的人-机-环境测试与工效学评价等多项科研成果,致力于将人因与工效学科学方法和成果应用到国防和社会科技发展进步。
津发科技重视客户服务质量、为客户创造价值,致力于推动人因工程与工效学行业发展和青年人才培养,2012年起在国内*发起“科研支持计划”,无偿支持人因工程领域青年学者进行科学研究;2014年工业和信息化部CSIP 与津发科技联合共建“工信部CSIP-津发人因工程技术创新中心”,持续进行技术研发和基础及应用创新研究; 2016年起联合中国人类工效学学会发起“工效学卓-越研究工程”并设立“CES-Kingfar基金(工效学会-津发优秀青年学者联合研究基金CES‐Kingfar Excellent Young Scholar Joint Research Funding)”,借鉴国家自然科学基金的评审标准,对特别优秀的青年学者研究计划书予以资助;2017年起联合教育部高等教育司设立“人因与工效学”产学合作协同育人项目,并由高教司发布申报指南和立项名单;2019年起与工效学联合会(IEA)设立奖项The IEA/Kingfar HFE Research Award“人因与工效学卓-越研究奖”,旨在表彰世界各地为解决发展中国家典型人因工程问题而取得高质量人因工程与工效学研究成果的个人,以期改善发展中国家人民的福祉;2019年中国人类工效学学会联合北京津发科技股份有限公司正式启动中国首届HFE Award全国人因与工效学创新大赛。
津发科技将持续以推动人因工程发展为己任,在国防和教育科研各领域推动人因与工效学技术进步,为中国教育科研事业的发展提供服务。
ErgoLAB人机环境同步云平台,是基于云架构的专业用于“以人为中心”的多模态数据同步采集和定量分析平台,是集科学化、集成化、智能化于一体的系统工程工具与解决方案产品,通过对人、机器、环境数据同步采集与综合分析,在人工智能时代根据人-信息-物理系统(HCPS)理论,对人-机-环境系统从人-信息系统、人-物理系统以及系统等角度进行人机交互评估以及人因与工效学的智能评价。
平台以人机环境多模态数据同步技术为基础,突出智能化、可穿戴的特点,采用国内自主研发技术,结合VR三维虚拟现实与环境模拟技术、动作捕捉技术、人体建模与仿真技术、脑认知神经科学与电生理技术、视觉追踪技术、行为分析技术、面部表情与状态识别技术等,客观定量化分析人机环境交互影响的关系,提升纵向研究的深度与横向研究的外延性。平台与许多认知神经科学、人因工程、 人工智能领域科研实验设备相兼容,提供了人因工程与工效学、人机交互与人工智能、心理学与认知科学以及神经网络、机器学习等研究内容的解决方案。
平台从基于云端的项目管理、实验设计、数据同步采集、信号处理与分析到综合统计与输出可视化报告,涵盖整个研究流程。对于特殊领域客户可定制云端的人因大数据采集与AI状态识别。
ErgoLAB数据与综合统计分析模块含多维度人-机-环境数据综合分析、EEG脑电分析与可视化、眼动分析以及可视化、行为观察、面部表情、动作姿态伤害评估与工效学分析、交互行为、时空行为、车辆与驾驶行为、HRV心率变异性分析、EDA/GSR皮电分析、RESP呼吸分析、EMG肌电分析、General通用信号分析,具备专门的信号处理与开放式信号处理接口,可直接导出可视化分析报告以及原始数据,支持第三方处理与开发。
平台通过SDK/API/TTL等广泛的数据接口进行第三方设备或者数据同步,同时可以直接导入外部数据,与系统内数据进行同步分析,支持定制开发。
内含大量丰富的技术与文献资料,包括在线 说明书、功能培训视频、技术、参数算法解释、操作手册、演示DEMO等,方便研究者能够更快速的掌握大量实验技能与知识。
平台可以进行实验室研究、移动终端研究、虚拟仿真以及真实户外环境的研究。云实验设计模块具备多时间轴、随机化呈现等功能、可以创建复杂的实验设计,支持任何类型的刺激材料,包括问卷、量表与范式、声光电刺激、实时API编码/TTL事件标记、多媒体刺激编辑,在线网站和手机应用程序,以及所有的原型设计材料,也支持与如下刺激实时同步采集:如场景摄像机,软件,游戏,VR,AR程序等。兼容第三方刺激编译软件,如E-prime,Superlab,Tobii Pro Lab等。
平台采用主客观结合多维度数据验证的方法,同步大脑认知数据、视觉数据、生理信号数据、行为观察、肢体动作与面部表情数据、生物力学数据、人机交互数据、多类型时空行为数据采集与环境数据等。
在标准的实验室环境下,以桌面或移动终端为载体呈现的刺激材料,包括图片、文本、视频、音频、网页刺激、交互程序、录制屏幕等,可实时预览、自由拖拽、一键导入多刺激材料。实时同步采集眼动、脑电、近红外脑成像以及电生理指标等高精度多模态测量数据。
支持搭建多类型虚拟现实交互设备与场景,包括头戴式虚拟现实系统、CAVE大型沉浸式虚拟现实交互系统以及多人交互系统等。在虚拟环境中通过模拟真实世界交互模式,可以添加视觉、听觉、触觉以及重力等真实感受模拟;在虚拟现实的环境下,实时同步采集人-机-环境数据并进行定量化分析与评价,包括人员在虚拟环境下的空间定位、交互行为、脑电、眼动、生理、生物力学、动作捕捉、面部表情等数据。
提供逼真道路交通仿真场景、真实感驾驶模拟座舱,精确的驾驶操纵传感器输出,满足研究所需的交通场景编辑系统,并且具备定制和升级能力,支持在各种道路交通和驾驶行为研究中实时同步采集驾驶人-车辆-道路-环境的客观、定量化数据。
平台能够结合光、声、振动、微气候等多种环境模拟条件下,同步采集个体在模拟环境下进行操作任务时的多模态客观数据反应。
平台采用可穿戴测量技术、移动终端采集技术以及离线采集与数据储存,于真实的现场环境研究。