致力打造国内好用的AI产品导航平台
由于不堪重负的医疗保健系统中等待名单冗长且成本不断上升,许多人开始转向ChatGPT等由人工智能驱动的聊天机器人进行自我医疗诊断。最近的一项调查显示,大约六分之一的美国成年人每月至少使用一次聊天机器人获取健康建议。
但最近一项由牛津大学牵头的研究表明,过度信任聊天机器人给出的结果可能存在风险,部分原因在于人们很难确定该向聊天机器人提供哪些信息,才能获得尽可能好的健康建议。 “这项研究揭示了一种双向沟通障碍,”牛津大学互联网研究所研究生主任、该研究的合著者亚当·马赫迪告诉TechCrunch。“使用(聊天机器人)的人做出的决策并不比那些依靠在线搜索或自身判断等传统方法的参与者更好。” 在这项研究中,研究人员在英国招募了约1300人,并向他们提供了一组医生编写的医疗场景案例。
参与者的任务是识别案例中潜在的健康问题,并使用聊天机器人以及他们自己的方法,来确定可能的行动方案(例如,去看医生或去医院)。 参与者使用了为ChatGPT提供支持的默认人工智能模型GPT-4o,以及Cohere的Command R+和Meta的Llama 3(该模型曾为Meta的人工智能助手提供支持)。研究人员表示,聊天机器人不仅使参与者识别出相关健康问题的可能性降低,还使他们更有可能低估自己所识别出问题的严重程度。
马赫迪说,参与者在向聊天机器人提问时常常遗漏关键细节,或者收到难以理解的答案。 他补充道:“(他们从聊天机器人那里)收到的回复往往好坏建议参半。目前针对(聊天机器人)的评估方法并不能反映与人类用户交互的复杂性。” 这些研究结果出炉之际,科技公司正越来越多地推动将人工智能作为改善健康状况的一种手段。据报道,苹果公司正在开发一种人工智能工具,能够提供与运动、饮食和睡眠相关的建议。
亚马逊正在探索一种基于人工智能的方法,用于分析医疗数据库以研究“健康的社会决定因素”。微软则在助力开发人工智能,以便对患者发送给医疗服务提供者的信息进行分类处理。 但正如TechCrunch此前报道的那样,对于人工智能是否已准备好应用于高风险的医疗领域,专业人士和患者看法不一。
美国医学协会不建议医生使用ChatGPT等聊天机器人辅助临床决策,包括OpenAI在内的大型人工智能公司也警告不要根据其聊天机器人的输出结果进行诊断。 马赫迪说:“我们建议在做出医疗保健决策时依靠可靠的信息来源。目前针对(聊天机器人)的评估方法并不能反映与人类用户交互的复杂性。就像新药的临床试验一样,(聊天机器人)系统在部署之前应该先在现实世界中进行测试。”