杨净羿阁发自凹非寺
量子位公众号 QbitAI
史上 AI 最高分,谷歌新模型刚刚通过美国医师执照试题验证!
而且在科学常识、理解、检索和推理能力等任务中,直接与人类医生水平相匹敌。在一些临床问答表现中,最高超原 SOTA 模型 17% 以上。
此进展一出,瞬间引爆学界热议,不少业内人士感叹:终于,它来了。
广大网友在看完 Med-PaLM 与人类医生的对比后,则是纷纷表示已经在期待 AI 医生上岗了。
还有人调侃这个时间点的精准,恰逢大家都以为谷歌会因 ChatGPT 而“死”之际。
来看看这到底是一个什么样的研究?
史上 AI 最高分
由于医疗的专业性,今天的 AI 模型在该领域的应用很大程度上没有充分运用语言。这些模型虽然有用,但存在聚焦单任务系统(如分类、回归、分割等)、缺乏表现力和互动能力等问题。
大模型的突破给 AI+ 医疗带来了新的可能性,但由于该领域的特殊性,仍需考虑潜在的危害,比如提供虚假医疗信息。
基于这样的背景,谷歌研究院和 DeepMind 团队以医疗问答为研究对象,做出了以下贡献:
-
提出了一个医学问答基准 MultiMedQA,包括医学考试、医学研究和消费者医学问题;
-
在 MultiMedQA 上评估了 PaLM 及微调变体 Flan-PaLM;
-
提出了指令提示x调整,让 Flan-PaLM 进一步与医学接轨,产生了 Med-PaLM。
他们认为‘医疗问题的回答’这项任务很有挑战性,因为要提供高质量的答案,AI 需要理解医学背景、回忆适当的医学知识,并对专家信息进行推理。
现有的评价基准往往局限于评估分类准确度或自然语言生成指标,而不能对实际临床应用中详细分析。
首先,团队提出了一个由 7 个医学问题问答数据集组成的基准。
包括 6 个现有数据集,其中还包括 MedQA(USMLE,美国医师执照考试题),还引入了他们自己的新数据集 HealthSearchQA,它由搜索过的健康问题组成。
这当中有关于医学考试、医学研究以及消费者医学问题等。
接着,团队用 MultiMedQA 评估了 PaLM(5400 亿参数)、以及指令微调后的变体 Flan-PaLM。比如通过扩大任务数、模型大小和使用思维链数据的策略。
FLAN 是谷歌研究院去年提出的一种微调语言网络,对模型进行微调使其更适用于通用 NLP 任务,使用指令调整来训练模型。
结果发现,Flan-PaLM 在几个基准上达到了最优性能,比如 MedQA、MedMCQA、PubMedQA 和 MMLU。尤其是 MedQA(USMLE)数据集,表现超过了此前 SOTA 模型 17% 以上。
本项研究中,共考虑了三种不同规模的 PaLM 和 Flan-PaLM 模型变体:80 亿参数、620 亿参数以及 5400 亿参数。
不过 Flan-PaLM 仍存在一定的局限性,在处理消费者医学问题上表现效果不佳。
为了解决这一问题,让 Flan-PaLM 更适应医学领域,他们进行了指令提示调整,由此产生 Med-PaLM 模型。
△示例:新生儿黄疸需要多长时间才能消失?
团队首先从 MultiMedQA 自由回答数据集(HealthSearchQA、MedicationQA、LiveQA)中随机抽取了一些例子。
然后让临床医生 5 人组提供示范性答案。这些临床医生分布于美国和英国,在初级保健、外科、内科和儿科方面具有专业经验。最终在 HealthSearchQA、MedicationQA 和 LiveQA 中留下了 40 个例子,用于指令提示调谐训练。
多个任务接近人类医生水平
为了验证 Med-PaLM 的最终效果,研究人员从上文提到的 MultiMedQA 中抽取了 140 个消费者医疗问题。
其中 100 个来自 HealthSearchQA 数据集,20 个来自 LiveQA 数据集,20 个来自 MedicationQA 数据集。
值得一提的是,这里面并不包含当初用于指令提示调整以生成 Med-PaLM 的问题。
他们让 Flan-PaLM 和 Med-PaLM 分别对这 140 个问题生成答案,又请来一组专业的临床医生作出回答。
以下图为例,当被问到“耳朵疼得厉害意味着什么”时,Med-PaLM 不仅会一条条列出患者可能感染的疾病,还会建议如果有以下几种现象应该去就医。
耳部疼痛可能是几种潜在疾病的征兆,包括:中耳感染(中耳炎)、外耳感染(耳部感染)、耳垢嵌塞。也可能是更严重疾病的征兆,比如脑瘤或中风。
如果你有严重的耳朵疼痛,持续时间超过几天,或者有其他症状伴随耳朵疼痛,如头晕、发烧、面部无力或麻木,你应该去看医生进行评估。医生可以确定疼痛的原因,并提供适当的治疗。
就这样,研究人员将这三组答案匿名后交给 9 名分别来自美国、英国和印度的临床医生进行评估。
结果显示,在科学常识方面,Med-PaLM 和人类医生的正确率都达到了 92% 以上,而 Flan-PaLM 对应的数字为 61.9%。
在理解、检索和推理能力上,总体来说,Med-PaLM 几乎达到了人类医生的水平,两者相差无几,而 Flan-PaLM 同样表现垫底。
在答案的完整性上,虽然 Flan-PaLM 的回答被认为漏掉了 47.2% 的重要信息,但 Med-PaLM 的回答有显著提升,只有 15.1% 的回答被认为缺失了信息,进一步拉近了与人类医生的距离。
不过,尽管遗漏信息较少,但更长的答案也意味着会增加引入不正确内容的风险,Med-PaLM 的答案中不正确内容比例达到了 18.7%,为三者中最高。
再考虑到答案可能产生的危害性,29.7% 的 Flan-PaLM 回答被认为存在潜在的危害;Med-PaLM 的这个数字下降到了 5.9%,人类医生相对最低为 5.7%。
除此之外,在医学人口统计学的偏见上,Med-PaLM 的性能超过了人类医生,Med-PaLM 的答案中存在偏见的情况仅有 0.8%,相比之下,人类医生为 1.4%,Flan-PaLM 为 7.9% 。
最后,研究人员还请来了 5 位非专业用户,来评估这三组答案的实用性。Flan-PaLM 的答案只有 60.6% 被认为有帮助,Med-PaLM 的数量增加到了 80.3%,人类医生最高为 91.1%。
总结上述所有评估可以看出,指令提示调整对性能的提升效果显著,在 140 个消费者医疗问题中,Med-PaLM 的表现几乎追上了人类医生水平。
背后团队
本次论文的研究团队来自谷歌和 DeepMind。
继去年谷歌健康被曝大规模裁员重组后,这可以说是他们在医疗领域推出一大力作。
连谷歌 AI 负责人 Jeff Dean 都出来站台,表示强烈推荐!
有业内人士看完后也称赞道:
临床知识是一个复杂的领域,往往没有一个明显的正确答案,而且还需要与病人进行对话。
这次谷歌 DeepMind 的新模型堪称 LLM 的完美应用。
值得一提的是,前段时间刚通过了美国医师执照考试另一个团队。
再往前数,今年涌现的 PubMed GPT、DRAGON、Meta 的 Galactica 等等一波大模型,屡屡在专业考试上创下新的记录。
医疗 AI 如此盛况,很难想象去年还一度唱衰的光景。当时谷歌与医疗 AI 相关的创新业务始终没有做起来。
去年 6 月还一度被美国媒体 BI 曝光正陷入重重危机之中,不得不大规模裁员重组。而在 2018 年 11 月谷歌健康部门刚成立时可谓风光无限。
也不只是谷歌,其他知名科技公司的医疗 AI 业务,也都曾经历过重组、收购的情况。
看完这次谷歌 DeepMind 发布的医疗大模型,你看好医疗 AI 的发展吗?