医生应该拥抱人工智能,但要谨慎
2023年07月19日 由 Alex 发表
667811
0
想象一下,你要去看医生,医生正在询问你一般病史和身体检查。然而,除了能够向你的医生提问之外,你还可以通过计算机人工智能聊天机器人回答你的重要医疗问题。随着通用人工智能和新兴聊天机器人(如OpenAI的ChatGPT和最近谷歌的医疗聊天机器人Med-PALM)的爆炸式增长,这可能在未来成为现实。这些工具为患者提供了关于他们护理的复杂医疗问题的类似人类的连贯答案。
这些人工智能工具有可能改变和彻底改变医疗保健专业人员提供患者护理的方式,它们的可能性似乎无穷无尽。目前在医疗保健领域正在使用或正在探索的人工智能用途包括但不限于做出具体诊断、与患者沟通、减少医生的管理任务、撰写处方和远程治疗患者。鉴于人工智能在医疗保健领域的种种前景,医生和患者是否应该过早地接受它作为未来的现实?
在这些人工智能工具被广泛采用之前,所有医生和患者都必须了解一些问题。首先,围绕人工智能聊天机器人存在重大的伦理担忧。如果这些设备提供的建议最终伤害了患者,谁有过错,谁对患者的后果负有法律责任?
举个例子,一个患有罕见遗传病的病人被聊天机器人推荐服用一种药物来减缓疾病的进展。这种药物不但没有改善病情,反而导致危及生命的出血,需要在ICU住院长达四周。在这种情况下,谁将负责分配药物的决定——病人、医生还是聊天机器人?在临床实践中采用这种类型的软件之前,这些都是应该仔细考虑的伦理问题。
另一个主要问题是偏见,这在基于人工智能的医疗应用模型中得到了充分认识。大多数生成式人工智能工具都需要某种形式的数据来进行训练。由于所有数据都以某种形式存在偏差,因此这些依赖于数据以获得足够性能的工具也将存在偏差。
例如,考虑这样一种情况:医疗聊天机器人提供建议,建议通过成像研究评估某种疾病的频率。聊天机器人的结论是,人们应该每五年接受一次特定疾病的CT扫描。然而,用于提出这一建议的数据依赖于主要由白人和西班牙裔个体组成的人群,而不是黑人患者。因此,该建议将偏向于黑人个体,该建议可能不适合黑人患者,因为数据不代表黑人患者的健康状况。如果实施这些建议,可能会导致黑人患者之间的健康差异,这当然是不可接受的。
最后,生成式人工智能工具可能会导致过度创造,甚至是聊天机器人的错误答案或输出。提供不恰当的反馈,更糟糕的是,根据这些反馈采取行动,可能会给病人带来灾难性的后果。随着时间的推移,支持人工智能的聊天机器人将不断改进;然而,在提供病人护理时,不能完全依赖这些聊天机器人的信息。在与真实病人及其亲人打交道时,依赖人工智能的风险太高了。
人工智能将改变患者护理,医生必须接受医疗保健方面的进步。人工智能应该被视为加强和改善医生实践的一种方式,可以处理官僚主义的任务,比如文书工作,这些任务会严重导致职业倦怠。然而,为了给病人提供最有效的治疗,它应该谨慎使用,当然还要在医生的监督下使用。最终,医生,而不是计算机,仍然是病人及其护理的管理者。
来源:https://biz.crast.net/physicians-should-embrace-ai-but-with-caution/