利用声音诊病的案例 (人工智能医疗诊断新突破)

#5月财经新势力#​

你是否曾在身体不舒服时,自己上网搜索症状,自己诊断并给自己开药?这种做法不被专业医生鼓励,是因为网络上的信息不仅缺乏上下文,而且很多来源并不可靠。

而当下AI技术的快速发展可能让这件事更靠谱了些。比如,现在有了一种更强大的自我诊断工具:人工智能对话机器人。

例如,OpenAI的ChatGPT、微软的搜索引擎必应New Bing和谷歌的Med-PaLM等。

面对医疗工作者的严重短缺,研究人员和医学专家希望这些基于大语言模型开发的AI对话机器人可以帮助回答病患们的问题。

研究者预测,在今年内,美国会有至少一家主流大医疗中心宣布与LLM对话机器人合作,与患者互动并诊断疾病

人工智能如何利用声音诊断疾病?

我们的声音实际上包含了很多信息。事实上,它们甚至可以帮助诊断疾病——研究者们正在开发一个可以实现这一目标的应用程序。

据报道,美国国家卫生研究院(NIH)近期资助了一个大型研究项目,收集声音数据,并开发一个能够根据语音诊断患者的人工智能。

当你说话时,从你的声带振动到呼吸模式都提供了有关你健康状况的潜在信息,南佛罗里达大学健康声音中心主任、耳鼻喉科医生Yael Bensoussan博士说。她是该研究项目的负责人之一。

“我们问专家:如果你闭上眼睛,只听患者的声音,你能否对他们的诊断有一个大概的了解?”Bensoussan说。

“这就是我们获得所有信息的地方。”一个说话低沉缓慢的人可能患有帕金森氏综合征。口齿不清是中风的迹象。科学家甚至可以诊断出抑郁或癌症。

该团队将首先收集有五类症状病人的声音:神经系统紊乱、声音紊乱、情绪紊乱、呼吸系统紊乱和儿童紊乱(如自闭症和言语延迟)。

该项目是美国NIH桥接人工智能计划(Bridge to AI)的一部分,该计划于一年多前启动,获得了当局超过1亿美元的资金支持,目标是为精准医学创建大规模的医疗数据库。

“我们真的缺乏大型的开源数据库,”Bensoussan说。“每个机构都有自己的数据。但是创建这些网络和这些基础设施,并允许其他研究者使用这些数据是非常重要的。”

该项研究的最终目标是开发出一款利用声音来诊断病症的应用程序,可以帮助弥合农村或服务不足社区的医疗服务差距,并帮助社区医生将患者转介给医疗专家。

AI声音诊断技术的优势和挑战

声音诊断有许多优势。它可以提高医疗服务的可及性和效率,减少误诊和漏诊,提高患者的满意度和依从性。

它还可以为医学研究提供大量数据,促进新的生物标志物和治疗方法的发现。

然而,声音诊断也面临着一些挑战。其中之一是信息准确性的不确定性。

LLM对话机器人虽然比谷歌搜索更准确,但仍然存在误差和局限性。它们可能无法处理复杂或罕见的情况,也可能受到输入信息质量或语言障碍的影响。

此外,它们可能缺乏医学知识或临床经验,无法提供全面或个性化的建议。

另一个挑战是隐私和安全问题。声音数据包含了个人身份、情感状态、生理特征等敏感信息,如果没有适当的保护措施,可能会被泄露或滥用。

例如,一些LLM对话机器人可能会将用户的对话记录下来,并用于改进其算法或进行商业利用。

用户需要了解他们与机器人交流时所面临的风险,并有权选择是否同意分享他们的数据。

最后一个挑战是人类因素问题。即使LLM对话机器人能够提供准确和可靠的信息,用户也可能不理解、不信任或不遵循它们的建议。

用户可能会过度依赖或滥用机器人,忽视自己的直觉或专业医生的意见。用户也可能会对机器人产生过度亲密或依赖感,影响他们的心理健康。

AI声音诊断市场未来趋势

AI声音诊断是一项颠覆性的医疗创新,它有着巨大的市场潜力和社会价值。

据市场研究公司Grand View Research报告,全球语音分析市场规模预计将从2020年的13.5亿美元增长到2028年的54.9亿美元,复合年增长率为18.6%。其中,医疗保健领域是语音分析的重要应用领域之一。

据研究,该领域在全球市场目前已出现一些融资项目,主要都是由美国国家卫生研究院(NIH)资助的。

NIH的Bridge to AI项目旨在创建大规模的医疗数据库,用于开发基于人工智能的精准医疗工具。其中一个子项目就是收集人类声音数据,并开发一个能够根据语音诊断疾病的AI应用。

这个项目由南佛罗里达大学、康奈尔大学和其他10个机构合作进行,预计将持续四年,可能获得高达1400万美元的资金。

除了NIH之外,还有一些医疗AI公司,如Owkin,也参与了声音诊断技术的开发和应用。

还有美国audEERING公司,开发了一种基于声音的健康AI技术,可以监测健康发展,提供诊断分析,并收集用于开发声音生物标志物的数据。