【愈来愈多人用人功智能诊断健康】滑铁卢大学研究称当中存在风险(图)

发布 : 2025-5-31  来源 : 明报即时新闻网


用微信扫描二维码,分享至好友和朋友圈


【明报专讯】一项滑铁卢大学最新研究警告,用人功智能诊断健康问题存在风险。

随著加拿大人越来越多用人功智能来快速解答健康问题,一项新研究警告说,依赖像 ChatGPT这样的人工智能工具进行自我诊断可能存在风险。

由滑铁卢大学研究人员领导的一个团队,评估了OpenAI发布的大型语言模型 (LLM) ChatGPT-4 的表现。

该聊天机器人被问及一系列开放式医学问题,这些问题改编自医学执照考试中的情境。

研究结果令人震惊,只有31%的ChatGPT回答被认为完全正确,而只有34%被认为清晰。

领导该研究团队的滑铁卢大学博士生扎达(Troy Zada)说:「所以,这个比例不是很高」。

他又说:「如果它告诉你这是正确答案,即使它是错的,那也是一个大问题,对吧?」

研究人员将ChatGPT-4与其早期版本 3.5 进行了比较,发现有显著改进,但仍不足够。

在一个案例中,聊天机器人自信地诊断出患者的皮疹是对洗衣粉的过敏反应。但事实上,这是由乳胶手套引起的这个关键细节被AI忽略了,尽管它被告知患者学习与停尸间有关的学问,并使用手套。

研究人员得出结论,大型语言模型尚未足够可靠,无法取代医疗专业人员,在处理健康问题时应谨慎使用。尽管有研究发现AI聊天机器人在某些情况下可以胜过人类医生,并通过涉及多项选择题的医学考试。

扎达表示,他并不是建议人们停止使用ChatGPT获取医疗资讯,但他们必须意识到其局限性和潜在的错误资讯。

札达又说:「它可能会告诉你一切都很好,但实际上存在一个严重的潜在问题。」

他说,它也可能提供一些资讯,让人们不必要地担心。

目前数百万加拿大人没有家庭医生,人们担心有些人可能会依赖人功智能来诊断健康问题,尽管AI聊天机器人通常会建议用户谘询真正的医生。

研究人员还指出,聊天机器人缺乏问责制,而人类医生则可能因错误而面临严重后果,例如执照被吊销或被控医疗事故。

虽然研究人员指出,ChatGPT的回答没有出现任何严重的错误,但他们提供了一些简单的建议。

札达说:「当你得到一个回答时,一定要验证该回答。」

基尔帕拉尼(Amrit Kirpalani)医生也同意这一点。他是一名儿科肾脏病学家和安省西安大学的助理教授,曾研究医学中的人功智能,并注意到越来越多的患者及其家人提及 ChatGPT等人功智能平台。

他认为医生应该主动与患者讨论其使用情况,因为有些人可能不愿谈论。

基尔帕拉尼说:「没有人愿意告诉他的医生,他们在ChatGPT上查询了,而它告诉他们不同的东西。」

他更希望患者与医生讨论聊天机器人的回答,特别是因为人功智能有时甚至比人类更有说服力。

他说:「我不确定我是否能像人功智能工具那样有说服力。它们可以以更简单、更易懂的方式解释一些事情。但准确性并不总是存在。所以它即使是错的,也可能非常有说服力。」

他将人功智能比作另一个熟悉的线上工具。

他表示,有点像用维基百科的比喻,它可能是一个很好的资讯来源,但不应该是个人主要来源。它可以是一个起点。

研究人员也承认,随著大型语言模型的持续改进,它们最终可能在医疗环境中被可靠地使用。但就目前而言,

面对人功智能,札达说:「不要盲目去接受结果。」