研究作者称,聊天机器人对患者的回应要普遍优于医生的回应,并且在回答质量和同理心方面的评分都明显高得多,“用人工智能改善医疗保健的机会是巨大的。”



最新公布的一项研究表明,聊天机器人ChatGPT在某些方面能表现得比医生出色。

这项研究周五(4月28日)发表在国际著名医学期刊《JAMA Internal Medicine》上。结果表明:人工智能助手可能有能力帮助医生起草对患者问题的回答。

作者加州大学圣地亚哥分校约翰·W·艾尔斯(John W. Ayers)博士称,聊天机器人对患者的回应要普遍优于医生的回应,并且在回答质量和同理心方面的评分都明显高得多,“用人工智能改善医疗保健的机会是巨大的。”

具体来看,研究团队从一个社交论坛上抽取了195个医学问题,每一个问题都有人类医生作出过回答。接着将这些问题输入到ChatGPT中,得到了对应的人工智能的回答。

然后,团队将人类医生的回答和聊天机器人的回答交由三名医疗保健专业人员来评估。

这组专业人员需要在三个方面打分:一、哪个反应得更好?二、信息的质量如何?三、回答是否具备同理心?

在评估过程中,医疗保健专业人员并不知道哪一份回答是来自人类的,或是来自ChatGPT的。

结果显示:在第一个问题上,评估者认为,聊天机器人在78.6%的问题上表现得比人类医生好;

在质量上,评估者觉得聊天机器人78.5%的回答表现良好或非常好,而人类医生只有22.1%;

在同理心方面,聊天机器人45.1%的回答被评为有同理心或非常有同理心,而医生的比例只有4.6%。

研究提供了一个非常典型的例子。一名患者在论坛提出了一个问题:漂白剂溅入眼睛后是否有失明的风险。ChatGPT先是表达关切,随后针对“不太可能失明”的结果提出了七句建议和鼓励。

而人类医生则是回应,“听起来你会没事的”,然后贴出了中毒中心的电话号码。经对比,三位医疗保健专业人员都更喜欢ChatGPT的反应。

但有专家指出,ChatGPT的回复通常要比医生长得多,可能会影响质量和同理心的分数。爱丁堡大学自然语言处理教授Mirella Lapata称,如果不控制回答的长度,就很难确定评分者的判断标准。

本周另有一项研究表明,ChatGPT在一些特定的医学场合具有独特的价值和优势。研究人员要求ChatGPT提供五年级阅读水平的医嘱,“ChatGPT提供的答案写得很好、很详细,有望让待诊患者更早获得专业信息。”

不过,宾夕法尼亚大学医学教授David Asch博士强调,ChatGPT应该被视为对医生的补充。他还警告,人工智能工具还没有充分准备好,“我担心错误信息会被放大。”