本篇文章给各位网友带来的资讯是:地震救人新突破!中科院研制出触嗅一体智能仿生机械手:受星鼻鼹鼠启发,识别准确率达 96.9% 详情请欣赏下文
IT大王 1 月 16 日消息,据中国科学院上海微系统与信息技术研究所消息,由地震、滑坡、塌方等掩埋事故造成的视觉感知障碍对受困人员的搜索和定位造成阻碍。
为了确保最佳救援时机,提升搜救成功率和生还率,依托国家科技创新 2030“新一代人工智能”重大项目,针对极端环境无视觉输入情况下对受困人员的识别与救援需求,中国科学院上海微系统与信息技术研究所研究员陶虎团队受自然界星鼻鼹鼠“触嗅融合”感知启发,将 MEMS 嗅觉、触觉柔性传感器阵列与多模态机器学习算法融合,构建了仿星鼻鼹鼠触嗅一体智能机械手(如图)。
▲ 用于应急救援掩埋场景的触嗅一体仿生智能机械手
据介绍,得益于硅基 MEMS 气体传感器(灵敏度超越人类 1 个数量级)、压力传感器(探测限超越人类 1 个数量级)的优异性能,该机械手手指触摸物体后可准确获取其局部微形貌、材质硬度和整体轮廓等关键特征,掌心可同步嗅出物体“指纹”气味,进一步通过仿生触嗅联觉 (BOT) 机器学习神经网络实时处理,最终完成识别人体、确认部位、判断掩埋状态、移开障碍物、闭环救援。
IT大王了解到,上海微系统所科研人员与应急管理部上海消防研究所合作,通过到一线消防救援单位实地调研,真实还原构建了人体被瓦砾石堆覆盖的掩埋场景,在此环境下对包括人体在内的 11 种典型物体进行识别,触嗅联觉识别准确率达 96.9%,较单一感觉提升了 15%。
相较麻省理工学院发表于 Nature(DOI:10.1038 / s41586-019-1234-z)的单一触觉(548 个传感器)感知研究,该工作通过触(70 个)、嗅(6 个)联觉,仅使用 1/7 数量的传感器,达到了更理想的识别目的,并且缩小后的传感器规模和样本量更适合复杂环境、资源有限条件下的快速反应和应用。此外,面对在实际救援中常见的存在干扰气体或器件部分损坏等情况,通过多模态感知的互补和神经网络的快速调节,该系统仍保持良好的准确率(>80%)。
相关研究成果以 A star-nose-like tactile-olfactory bionic sensing array for robust object recognition in non-visual environments 为题,于 2022 年 1 月 10 日发表在 Nature Communications 上。
1、IT大王遵守相关法律法规,由于本站资源全部来源于网络程序/投稿,故资源量太大无法一一准确核实资源侵权的真实性;
2、出于传递信息之目的,故IT大王可能会误刊发损害或影响您的合法权益,请您积极与我们联系处理(所有内容不代表本站观点与立场);
3、因时间、精力有限,我们无法一一核实每一条消息的真实性,但我们会在发布之前尽最大努力来核实这些信息;
4、无论出于何种目的要求本站删除内容,您均需要提供根据国家版权局发布的示范格式
《要求删除或断开链接侵权网络内容的通知》:https://itdw.cn/ziliao/sfgs.pdf,
国家知识产权局《要求删除或断开链接侵权网络内容的通知》填写说明: http://www.ncac.gov.cn/chinacopyright/contents/12227/342400.shtml
未按照国家知识产权局格式通知一律不予处理;请按照此通知格式填写发至本站的邮箱 wl6@163.com