急诊科医生如何使用ChatGPT的一个案例。
编者按:本文来自微信公众号 硅发布(ID:guifabucom),作者:Lynn Yang,创业邦经授权转载。
比尔.盖茨最近和美媒指出:未来几年内,健康和教育是最可能被人工智能“彻底改变”的诸多领域中的两个例外。
和大家分享一篇我很喜欢的来自 Fast Company 的文章。作者乔什·塔马约-萨弗博士在美国的一个社区急诊科从事临床工作,他也是美国健康科技创新孵化器 Inflect Health 的创新副主席。
以下是我的翻译简写,希望能给大家带来启发。
I’m an ER doctor. Here’s how I’m already using ChatGPT to help treat patients
随着人们对 ChatGPT 和其他大语言模型程序的爆炸性兴趣,许多人工智能传道者正在吹捧 AI 作为医疗诊断工具的用途——甚至广泛地宣称 AI 是医学的未来。
但就像许多高科技创新一样,这样的宣扬,往往会掩盖掉那些我们其实可以马上就能将其应用到现实生活中的“小而关键”的应用。
我说这个话,是作为一名正在使用 ChatGPT 来帮助治疗患者的在职急诊科医生说的。
但我不是将 ChatGPT 用于诊断。作为诊断助手,ChatGPT 的效果相当好,但这需要前提——你需要给它提供完美的信息,而且病人已经有典型表现——但现实生活中这种情况很少,并且必须是在你不介意 50% 的成功率经常会错过危及生命的情况下。
最近的一次夜班中,我在凌晨 3 点左右,看到了 ChatGPT 在医学上更加直接的效用。当时,我在治疗一位 96 岁的老年痴呆症患者,由于她的肺部有液体,所以她呼吸困难。她的三个孩子(都是 70 多岁的老人)也在急诊室里,这更增加了挑战。
可以理解的是:他们围着我和我的工作人员转来转去,以至于他们不断提出的要求实际上延缓了治疗。而让问题更复杂的是,他们绝对地确定他们的母亲需要什么。
“护士,我们的母亲需要静脉输液来治疗她的脱水症。请快点!”他们三个人都向我们重复这个请求,整整持续了一个多小时。
需要注意的是:实际上,静脉输液会使她的情况更糟,甚至会导致她死亡。
“我知道你们很关心你们的妈妈,”我试着向他们解释:“但她现在不能呼吸,因为她有肺水肿,也就是肺部有液体。如果我用静脉输液给她补充水分,会使她的肺水肿恶化,她可能会死。一旦我们把她肺里的液体排出来,呼吸问题解决了,我们就可以担心她的脱水问题了。”我说。
但病人的儿子们坚持说,而且很坚定:“但凡她生病,就是因为脱水而需要输液。你为什么不直接给她输液呢?她马上就会好起来的。”
我试图用多种不同的方式重新解释,但从儿子们面无表情的情况看,这些话都没有引起他们的共鸣。这其实是急诊室里的一种常见情况,人们在清醒时没有计划好在夜深人静时把患者带到我这里来的这种紧急情况,而且,他们的情绪往往处于失衡中。
更糟的是,其他几个病人更需要我的关注。
我急于寻找解决办法,就走到大厅的电脑前启动 ChatGPT-4,输入了下面这样一段话:
“请解释一下,为什么你不会给一个有严重肺水肿和呼吸困难的人进行静脉输液,尽管你可能担心病人脱水了。请用简单而富有同情心的语言来解释,让关心母亲的糊涂人能够理解。”
几秒钟内,ChatGPT 就制作了下面这段话:
“我真的理解你对你母亲的关心,对她的健康感到担忧是很自然的。
在严重的肺水肿和呼吸窘迫的情况下,给予静脉输液似乎有助于补充水分,但实际上可能使她的病情恶化。
当某人患有肺水肿时,他们的肺部充满了多余的液体,这使呼吸困难。如果给您母亲静脉输液,有可能会增加她肺部的液体,使她更难以呼吸,会造成她更多的不适。
我们的首要目标是确保您母亲的舒适和健康。医疗团队致力于为她提供最好的护理,他们将密切监测她的水化水平,同时采用更适合她具体病情的其他治疗方法。
请知道,你母亲的健康和舒适是我们的首要任务,在这个困难时期,我们会支持你们。如果你有任何问题或担忧,请不要犹豫,与医疗团队联系。
我们都在一起,我们会尽一切努力帮助你母亲康复。”
我把这个答复打印了出来,并向患者家人们宣读。当我背诵 ChatGPT 的话时,他们激动的表情立即融化为平静的同意。
更妙的是,我把打印副本交给了护士。当病人在等待重症监护室的床位时,家属们经常会回到护士身边询问静脉输液的情况(有些成员可能正与记忆障碍作斗争),而护士会向他们宣读剧本。这种方式总是受到热烈的欢迎。
同样关键的是,家属们会因此悄悄地退到一边,让我的工作人员专注于他们的工作。这样,我就可以把时间用在其他病得更重的病人身上,并在夜班的剩余时间处理好混乱的局面。
自从这件事发生后,我就开始使用 ChatGPT 来帮助以富有同情心的方式向病人和他们的亲人解释具体的医疗情况。在我的急诊室病房太忙或是人手不足的情况下,这已经成为一种宝贵的资源,可以准确又容易理解地解释复杂的医疗诊断。
在这样做的过程中,我逐渐意识到:
与 ChatGPT 打交道,就像是与一个令人难以置信的杰出的、努力工作的——偶尔会宿醉的——内部人员合作。这已经成为我考虑 ChatGPT 有用性的心理模型。
现在,对于任何潜在应用,我都会想:“一个专心致志但偶尔宿醉的实习生会不会让我和我的员工更轻松,或者管理他们的工作最终会不会比没有他们参与的情况下更费劲?”
从这个角度看,ChatGPT 或者一个宿醉的实习生仍然可以。比如说:
记下我病人的病史
为病人和工作人员创造长篇的书面交流
用富有同理心和同情心的方式向病人解释高度技术性的信息
在每一种情况下,宿醉的实习生/ChatGPT 的输出,在使用前都需要仔细检查。但审查现有工作通常比从头开始要快得多。至于我真正的人类实习生,ChatGPT 就可以让他们解放出来,专注于最需要的活动:照顾病人。
作为扩大人工智能在医疗保健领域应用的倡导者,我希望该行业能专注于像这样立即就可以实现的应用,而不是人工智能会完全改变医学的长期前景。
因为许多或大多数这些未来主义的方案都忽略了实施的实际挑战。
仅仅满足于有关病人隐私的 HIPAA 规则就可能需要很多年,甚至是几十年的时间来解决,我们甚至可以考虑在医疗剧院直接使用 ChatGPT 这样的程序。
然而,有关 ChatGPT 的间接使用通常现在就可以实施,而且实际上是迫切需要实施的——特别是在医生的职业倦怠水平已经达到历史最高点的情况下。
我们已经被仅分配给每个病人的几分钟时间所限制住,我们需要能够扩展和丰富医患关系的解决方案。
甚至,这些限制直接导致了一种常见的抱怨叫“医生讲话”——医生对症状和诊断的高度技术性的解释使病人们不知所措,甚至困惑,而不是让病人们感到被关心。很多时候,医生和他们的工作人员自己也不堪重负,无法用耐心、同情心和通俗的语言来解释医疗情况。
根据 CDC 的数据:美国各地的急诊室每年接待超过 1.31 亿人次。为了论证,假设使用 ChatGPT 来消除“医生讲话”的现象可以在全国急诊室中得到推广,并且每个病人平均可以节省 5 分钟,那么这将转化为每年节省超过 1000 万小时的时间——医生和他们的员工,可以将这些时间用于对更多病人的亲身护理。
但这些方法仍然在工作流程上存在挑战。如目前,输入 ChatGPT 的任何内容基本上都被发布到了网上;但为符合 HIPAA 的要求,任何能与特定病人联系起来的因素都必须被删除或改变。
(注:HIPAA 是一项联邦法律,要求制定国家标准以保护敏感的患者健康信息不被泄露)
此外,在采集病史的情况下,需要开发对 ChatGPT 与病人直接互动的系统,以确保宿醉的内部因素不会开始产生灾难性的建议。但这些都不是不可克服的挑战,而且回报是真实的。
我有点不好意思地承认:从 ChatGPT 的建议答复中,我学会了如何更好地向病人解释事情。但我也非常感激,因为我从病人那里感受到了更多的人际关系,他们明白我在为他们做什么,以及为什么这么做。
现在,有很多关于 ChatGPT 和其他 LLM 因其庞大的知识库而夺走医生们工作的炒作。它们其实不会的,事实上一个奇怪的讽刺是:由于人工智能的存在,我和我的急诊室工作人员都能够将更多时间投入到医疗保健的人类方程式(human equation)上。