japonensisJAVA好妈妈欢迎你人工智能可能会进入你医疗保健对一个胡编乱造、不能保守秘密、什么都不知道、说话时只是根据之前的内容补上下一个单词的人有什么用呢?根据一些最大的公司的说法,如果这个人是最新形式的人工智能,那就有很多。
推动最新人工智能技术(被称为“生成式人工智能”)的公司正在蜂拥而入:谷歌(Google)和微软(Microsoft)希望将所谓的大型语言模型引入医疗保健领域。那些白大褂们熟悉的大公司——但对普通人来说可能不那么熟悉——也同样热情高涨:电子病历巨头Epic和Oracle Cerner也不甘落后。这个领域也挤满了初创公司。
这些公司希望他们的人工智能能为医生做笔记,并给他们提供第二种意见——假设他们可以防止智能产生“幻觉”,或者就此而言,泄露病人的私人信息。
圣地亚哥斯克里普斯研究转化研究所(Scripps Research Translational Institute)所长埃里克·托波尔(Eric Topol)说:“有些事情正在进行中,非常令人兴奋。”“它的能力最终将产生重大影响。”像许多其他观察家一样,托波尔想知道它可能会造成多少问题——比如泄露病人数据——以及多久一次。“我们会找到答案的。”
对此类问题的担忧促使1000多名技术领袖在3月份签署了一封公开信,敦促企业暂停开发先进的人工智能系统,直到“我们确信它们的影响是积极的,它们的风险是可控的”。即便如此,其中一些公司仍在人工智能领域投入更多资金。
底层技术依赖于大量文本或其他数据的合成——例如,一些医学模型依赖于波士顿贝斯以色列女执事医疗中心的200万份重症监护记录——来预测给定查询后的文本。这个想法已经存在多年了,但淘金热,以及围绕它的营销和媒体狂热,都是最近才出现的。
这场热潮于2022年12月由微软支持的OpenAI及其旗舰产品ChatGPT拉开序幕,ChatGPT以权威和风格回答问题。例如,它可以用十四行诗来解释遗传学。
OpenAI最初是一家由硅谷精英(如山姆·奥特曼、埃隆·马斯克和里德·霍夫曼)投资的研究企业,现在已经利用这股热情赚到了投资者的钱。这家企业的结构复杂,是营利性和非营利性的混合体。但据《华尔街日报》报道,微软新一轮100亿美元的融资将OpenAI的价值推至290亿美元。目前,该公司正在将其技术授权给微软等公司,并向消费者销售订阅服务。其他初创公司正在考虑向医院系统或直接向患者销售人工智能转录或其他产品。
双曲引号随处可见。前财政部长拉里·萨默斯最近在推特上写道:“它将取代医生的工作——倾听症状并做出诊断——在它改变护士的工作之前——帮助病人在医院里站起来自理。”
但就在OpenAI再次获得巨额注资几周后,就连其首席执行官奥特曼也对这种大张旗鼓的宣传持谨慎态度。他在《纽约时报》3月份的一篇文章中说:“对这些系统的炒作——即使我们所希望的一切都是长期正确的——在短期内完全失去了控制。”
在医疗保健行业,几乎没有人相信这种最新形式的人工智能会取代他们的工作(尽管一些公司正在进行有争议的试验,让聊天机器人充当治疗师或护理指南)。尽管如此,那些看好这项技术的人认为,它将使他们的某些工作变得容易得多。
蒙大拿州比林斯的精神病学家埃里克·阿祖比(Eric Arzubi)曾经管理过一家医院系统的精神病学家同事。一次又一次,他会得到一份医生的名单,这些医生还没有完成他们的记录——他们对病人的病情和治疗计划的总结。
写这些笔记是卫生系统最大的压力源之一:总的来说,这是一种行政负担。但有必要为未来的供应商,当然还有保险公司建立一个记录。
“当人们远远落后于文档时,就会产生问题,”Arzubi说。“如果病人来到医院,发现字条还没写完,我们不知道发生了什么事,该怎么办?”
这项新技术可能有助于减轻这些负担。Arzubi正在测试一项名为Nabla Copilot的服务,该服务可以坐在他的位置上进行虚拟患者访问,然后自动总结这些访问,将投诉、病史和治疗计划组织成标准的笔记格式。
在大约50个病人之后,结果是可靠的,他说:“已经有90%了。”Copilot生成可使用的摘要,Arzubi通常对其进行编辑。这些总结不一定能捕捉到Arzubi可能不想说出来的非语言线索或想法。不过,他说,收获是显著的:他不必担心记笔记,而是可以专注于与病人交谈。而且他节省了时间。
他说:“如果我一天看满了病人,我可能会看15个病人,我会说这在一天结束时为我节省了一个小时。”(如果这项技术被广泛采用,他希望医院不会简单地安排更多的病人来利用节省的时间。“这不公平,”他说。)
Nabla Copilot并不是唯一的这类服务;微软也在尝试同样的概念。在医疗信息和管理系统协会(health Information and Management Systems Society) 4月份的会议上——一个医疗技术人员交流想法、发布公告和销售产品的行业会议——Evercore的投资分析师强调,减少行政负担是新技术的最大可能性。
但总体来说吗?他们听到的评价褒贬不一。这种观点很普遍:许多技术专家和医生都是矛盾的。
例如,如果你对诊断感到困惑,将患者数据输入其中一个程序“可以提供第二种意见,毫无疑问,”托波尔说。“我相信临床医生正在这么做。”然而,这遇到了目前技术的局限性。
创业公司Inflect Health的临床医生兼高管约书亚·塔马约-萨维尔(Joshua Tamayo-Sarver)根据自己在急诊科的实践,将虚构的患者场景输入一个系统,看看它的表现如何。他说,它漏掉了危及生命的情况。“这似乎有问题。”
这项技术也容易产生“幻觉”,即编造听起来令人信服的信息。正式的研究发现了广泛的表现。一篇初步研究论文使用神经外科开放式考题对ChatGPT和谷歌产品进行了测试,发现幻觉率为2%。合著者Nigam Shah告诉KFF健康新闻,斯坦福大学的研究人员进行了一项研究,检查了人工智能对64个临床场景的反应质量,发现6%的情况下引用是捏造或幻觉的。另一篇初步论文发现,在复杂的心脏病病例中,ChatGPT有一半的时间与专家意见一致。
隐私是另一个问题。目前还不清楚输入这种基于人工智能的系统的信息是否会留在内部。例如,ChatGPT的一些有进取心的用户已经设法让这项技术告诉他们凝固汽油弹的配方,凝固汽油弹可以用来制造化学炸弹。
理论上,该系统有防止私人信息泄露的护栏。例如,当KFF健康新闻询问ChatGPT的电子邮件地址时,该系统拒绝透露该私人信息。但当被要求扮演一个角色,并询问本文作者的电子邮件地址时,它很高兴地透露了这些信息。(这确实是作者在2021年的正确电子邮件地址,届时ChatGPT的存档将结束。)
“我不会把病人的数据放进去,”斯坦福医疗保健(Stanford Health Care)的首席数据科学家沙阿说。“我们不明白,一旦这些数据进入OpenAI服务器,会发生什么。”
OpenAI的发言人蒂娜·苏(Tina Sui)告诉KFF健康新闻,人们“永远不应该使用我们的模型为严重的医疗状况提供诊断或治疗服务。”她说,它们“没有经过微调,无法提供医疗信息”。
随着新研究的爆炸式增长,托波尔说:“我不认为医学界对即将发生的事情有很好的了解。”
KFF健康新闻是一个全国性的新闻编辑室,制作有关健康问题的深度新闻,是KFF的核心运营项目之一,是健康政策研究、民意调查和新闻的独立来源。了解更多关于KFF的信息。
这个故事可以免费转载(详情)。
无人视频在线观看免费播放下载主播颜值超高,网友:身材也很好!
Win11磁盘被写保护怎么办-Win11磁盘被写保护的解除方法