387 / 2024-09-14 17:28:25
声视形--基于虚拟现实技术的无障碍平台
全文待审
仰大祺 / 山东大学(威海)
杨紫萱 / 山东大学(威海)
王晟元 / 山东大学(威海)
郑智文 / 山东大学(威海)
张韫怡 / 山东大学(威海)
本项目旨在通过虚拟现实技术、AIGC、AI深度学习算法等手段,开发一款全方位支持听障人士日常生活的软件,解决他们在日常生活中感知声音、定位声源以及无障碍沟通的难题。根据世界卫生组织数据,全球约有4.3亿人存在听力损失,中国有超过2780万听力障碍患者。听障人士不仅面临生存上的困难,更缺乏心理层面的关注,难以融入社会、享受高质量生活。

项目通过以下几项关键技术解决听障人士的核心需求:

1.声音可视化:针对听障人士无法直观感知声音的问题,项目利用AI算法对环境中的声音进行分析和分类,并通过AIGC生成声音的图像和描述。该技术可以让听障人士通过波形图和可视化界面感受到声音的存在,并了解到声音的大小、种类和特征。例如,当听障人士处在公园中时,他们不仅能“看到”鸟叫声,还能感受到周围人群的欢笑声、掌声等,增加他们的生活参与感。

2.声源定位:听障人士在日常生活中无法确定声音的来源,容易导致安全隐患。为解决这一问题,项目通过开发声源定位算法,将声音源头通过混合现实设备在虚拟空间中标记出来。无论是汽车鸣笛声、敲门声,还是电器的提示音,用户都能通过设备准确定位声音的来源,及时发现潜在危险,提升日常生活的安全性和便利性。

3.人声识别与实时转文字:听障人士在与普通人交流时,常常依赖手语或打字,效率低下且不便。为此,项目内置AI语音识别技术,将对话内容实时转换为文字并显示在悬浮的MR面板上。听障人士可以通过阅读面板上的文字,快速理解对方的意图。该功能大大提升了交流的便捷性和效率,帮助听障人士与他人无障碍地互动。

4.手语识别与智能交互:项目进一步开发了手语识别技术,该设备可以识别并转化听障人士使用的手语,将其转换为文字或通过AI语音系统朗读出来,打破与不懂手语的普通人之间的沟通障碍。同时,设备提供预设的常用语和虚拟键盘,便于用户快捷输入信息。该功能减少了听障人士在交流中依赖打字的繁琐步骤,提升了交互的流畅性。

应用场景和用户价值本项目为听障人士、老年人等听力障碍群体提供了全方位的日常生活支持。不仅让听障人士感知声音、参与社会互动,还帮助他们在日常生活中提高安全性、融入周围环境。例如,听障人士在日常生活中通过本软件“看到”声音的存在,能避免许多意外事故,提升生活质量。通过声源定位、声音可视化、人声识别和手语识别,项目全面改善了听障人士日常生活中的感知和沟通障碍。

随着5G、物联网、人工智能技术的不断发展,增虚拟现实设备逐渐普及。本项目通过与该技术结合,将声音感知、定位和交互功能集成在便携式设备上,提升了听障人士的生活质量和交流体验。未来,无障碍眼镜的轻便化和高效化将进一步推动这类技术的发展,项目的应用场景也将从日常生活扩展至智能家居、医疗保健等领域,成为推动社会无障碍沟通的重要力量。
重要日期
  • 会议日期

    10月30日

    2024

    10月31日

    2024

  • 11月30日 2024

    初稿截稿日期

主办单位
中国虚拟现实大赛组委会
中国虚拟现实大赛指导委员会
承办单位
长春大学
VR中国
联系方式
历届会议
移动端
在手机上打开
小程序
打开微信小程序
客服
扫码或点此咨询