AI聊天机器人给出的健康建议,真的可信吗?

随着AI聊天机器人日益普及,越来越多人将其作为健康咨询工具。本文探讨了AI在医疗建议方面的潜力与风险,通过真实案例和研究数据,揭示了其准确性高度依赖于用户提供信息的完整性,并提醒公众需谨慎对待AI的健康建议。

AI聊天机器人给出的健康建议,真的可信吗?

AI健康顾问的兴起

过去一年,来自曼彻斯特的Abi一直使用ChatGPT来帮助管理自己的健康。对于像她这样有健康焦虑的人来说,聊天机器人能提供比传统网络搜索更个性化的建议,感觉就像“和医生聊天一样”。

现实案例:利弊并存

Abi的经历展示了AI健康建议的双面性。一次,她怀疑自己有尿路感染,ChatGPT根据症状建议她去药房咨询,最终她顺利获得了抗生素治疗。这让她感觉“没有占用NHS的时间”。

然而,另一次远足摔倒后,她背部剧痛并蔓延至腹部。ChatGPT诊断她“器官穿孔”,建议立即去急诊。结果她在急诊室等待三小时后,疼痛缓解,意识到自己并非危重。AI这次“明显判断错误”。

专家与研究怎么说?

英格兰首席医疗官克里斯·惠蒂教授指出,目前AI健康建议的质量“还不够好”,答案常常“自信且错误”。

牛津大学“机器推理实验室”的研究揭示了关键问题:当聊天机器人获得完整、详细的病情描述时,其诊断准确率高达95%。但当1300名普通用户以对话形式(即逐步提供信息,可能遗漏或分心)向AI咨询时,准确率骤降至35%。这意味着三分之二的情况下,人们得到了错误的诊断或护理建议。

研究中的一个场景是危及生命的“蛛网膜下腔出血”(一种脑卒中)。根据用户描述症状方式的不同,ChatGPT给出的建议天差地别:从建议休息、补水和服用非处方止痛药,到敦促立即就医。

AI建议 vs. 传统网络搜索

格拉斯哥的全科医生玛格丽特·麦卡特尼博士指出了重要区别:使用聊天机器人感觉像是在建立一种“个人关系”,而传统网络搜索(例如访问NHS网站)会让你看到更多关于信息可靠性的上下文。AI生成的“为你定制”的建议可能会改变我们解读信息的方式。

给用户的建议

  • 保持警惕: AI聊天机器人并非医疗专业人员,其建议可能存在错误或遗漏。
  • 信息完整性至关重要: AI的诊断质量高度依赖于你提供信息的准确性和全面性。
  • 不能替代专业医疗: 对于任何严重的、持续的或令人担忧的症状,务必咨询合格的医生或医疗保健提供者。
  • 善用传统资源: 像NHS官网这样的权威健康网站,经过专业审核,通常是更可靠的信息来源。
  • 将AI视为辅助工具: 它可以用于初步了解或管理轻度健康问题,但绝不能作为最终诊断或治疗依据。