杜克大学研究员:心理健康数字工具需要道德准则,务实试验

杜克大学教授Murali Doraiswamy说研究人员“应该像开发药物一样思考证据开发”

自杀是全世界年轻人的第二大死亡原因,但据估计,大约三分之二的精神健康挑战者得不到支持。人工智能(AI)工具的进步可能为解决心理保健方面的严重差距提供了机会,尽管临床医生必须同时解决功效和道德问题。

在8月2日举行的NIH合作大回合会议上,杜克大学医学院精神病学和行为服务教授Murali Doraiswamy提出以下论点,即在心理健康中使用AI和其他数字工具需要持续关注在实用的临床试验中。他说:“我们应该像开发毒品一样考虑证据的发展。”

 多莱斯瓦米(Doraiswamy)领导一个临床试验部门,以开发新型技术和治疗方法来增强大脑健康。他还是世界经济论坛全球神经技术未来委员会的联合主席,该委员会最近发布了一份有关技术和人工智能在心理健康方面的潜力的白皮书。在演讲中,他指出了技术可以帮助解决的一些问题,包括持续的污名化,缺乏同等性以及与身体健康的融合,从而奠定了基础。他说,美国精神病医生严重短缺,并指出美国77%的县缺乏足够的精神病医生数量。在美国以外,情况甚至更糟。他说:“我们正在实践浅层医学,等待时间长,就诊时间短,面对面时间很少,这感觉像是对精神科医生的'传送带'方法,这反过来导致精神病医生的倦怠,”他说。  

他还指出,在某些情况下,精神科医生的诊断可靠性往往较好,但对于重度抑郁症或焦虑症等疾病则不然。他补充说:“下游的一切都会受到诊断准确性的影响。”

Doraiswamy描述了一些有前途的机器学习试点研究,这些机器学习用于诊断高风险患者或化身以引起响应,以及通过短信进行危机咨询。他播放了由南加州大学创意技术学院创建的虚拟治疗师SimSensei的片段。它具有类似人的手势,并集成了来自患者的多感官信息。他建议需要制定准则,以衡量新部署的AI和其他心理健康干预措施的效果,包括确保设计嵌入负责任的做法并满足透明度和道德要求。

“我们需要进行大规模的实际试验,”多拉伊斯瓦米(Doraiswamy)说。 “我们需要进行的试验与药物试验几乎相同,并进行重复。”大型公共/私人合作伙伴关系的一个示例是疾病与复发的远程评估-中枢神经系统(RADAR-CNS)。这项合作研究计划将探索可穿戴设备和智能手机技术在预防和治疗抑郁症,多发性硬化症和癫痫症方面的潜力。  

他还提到,三个月前,杜克大学和哈佛大学对医生的社交网站Sermo进行了调查。他们询问了22个国家的791位精神科医生,他们认为AI在未来25年内将对精神病学产生什么影响。在受访者中,有6.7%的人表示没有影响力,有42%的人表示影响力很小,大约一半的人表示中等或极端影响力。他指出,有25%的受访者表示,收益不会超过危害,而且女性和美国受访者的这一数字高于男性和世界其他地区的人们。当被问及在未来25年内AI和化身能否提供移情保健时,有83%的人表示机器将无法做到这一点。 “这很重要,”多拉伊斯瓦米(Doraiswamy)说,“因为他们将是决定是否将其整合到护理中的人。”

白皮书Doraiswamy指出,技术可以在满足未满足的精神保健需求方面发挥关键作用,因此呼吁采取八项行动:

1.   建立治理结构,以支持精神卫生保健中新技术的广泛合乎道德的使用(包括大数据的收集和使用)。

2.    制定以人权法为基础的法规,并且要灵活灵活地启用和鼓励创新,同时在确保安全性和有效性方面与技术进步保持同步。

3.    将负责任的实践融入新技术设计中,以确保为精神卫生保健开发的技术以人们的最大利益为核心,主要关注经验丰富的人。

4.    在实施以技术为主导的精神保健服务时,应采用“测试与学习”的方法,以允许不断进行评估和改进,并迅速发现意想不到的后果。

5.    通过在较大社区的同意下将创新部署到更大的社区来利用规模优势。

6.    设计测量并就统一指标达成一致。确保有效性并告知“测试与学习”方法。

7.    构建可以随时间持续保持(就可负担性和维护而言)的技术解决方案。

8.    优先考虑低收入社区和国家,因为它们是当今服务最薄弱的国家,并且最有可能以相对较低的成本看到切实的利益。

 

人工智能/机器学习的更多内容