-
生物通官微
陪你抓住生命科技
跳动的脉搏
在回答癌症问题时,ChatGPT靠得住吗?
【字体: 大 中 小 】 时间:2023年03月21日 来源:Huntsman Cancer Institute
编辑推荐:
聊天机器人和人工智能在回答健康问题方面越来越受欢迎。研究人员研究了其中一种资源ChatGPT,以提供关于人工智能在癌症相关信息背景下的能力和局限性的非常有价值和及时的见解。癌症患者和他们的护理人员是否得到了准确的答案?
《美国国家癌症研究所癌症谱系杂志》上的一项研究研究了聊天机器人和人工智能(AI),因为它们已成为癌症信息的流行资源。他们发现,当被问及常见的癌症神话和误解时,这些资源提供了准确的信息。在此类研究中,亨茨曼癌症研究所的内科科学家、犹他大学放射肿瘤系助理教授斯凯勒·约翰逊(Skyler Johnson)医学博士评估了ChatGPT癌症信息的可靠性和准确性。
利用美国国家癌症研究所(NCI)关于癌症的常见神话和误解,约翰逊和他的团队发现97%的答案是正确的。然而,这一发现伴随着一些重要的警告,包括团队中的一些ChatGPT答案可能被错误地解释。“这可能会导致癌症患者做出一些糟糕的决定。研究小组建议,在建议患者是否应该使用聊天机器人获取癌症信息时要谨慎。”约翰逊说。
研究发现,审查人员是盲目的,这意味着他们不知道答案是来自聊天机器人还是NCI。虽然答案是准确的,但审查人员发现ChatGPT的语言是间接的,模糊的,在某些情况下,不清楚。
约翰逊说:“我认识并理解癌症患者和护理人员获取准确信息的困难程度。”“需要对这些来源进行研究,以便我们能够帮助癌症患者在在线信息环境中寻找诊断答案时,在浑浊的水域中航行。”
不正确的信息会伤害癌症患者。在约翰逊和他的团队之前发表在《美国国家癌症研究所杂志》上的一项研究中,他们发现社交媒体上的错误信息很常见,有可能伤害癌症患者。
接下来的步骤是评估患者使用聊天机器人寻求癌症信息的频率,他们在问什么问题,以及人工智能聊天机器人是否能对有关癌症的不常见或不寻常的问题提供准确的答案。
这项研究得到了美国国立卫生研究院/国家癌症研究所的支持,包括P30 CA042014和亨茨曼癌症基金会。
Journal Reference:
Skyler B Johnson, Andy J King, Echo L Warner, Sanjay Aneja, Benjamin H Kann, Carma L Bylund. Using ChatGPT to evaluate cancer myths and misconceptions: artificial intelligence and cancer information. JNCI Cancer Spectrum, 2023; 7 (2) DOI: 10.1093/jncics/pkad015