
编者按:当AI的触角伸向医疗这一关乎生命的领域,一场无声的战役正在加州打响。一边是医疗机构拥抱科技、承诺效率革命的蓝图,另一边是医护人员举着标语、以绝食抗议捍卫职业与患者安全的现实。这场博弈不仅关乎饭碗,更直指一个核心问题:在算法与人性交织的未来,谁为生命的重量负责?从病历转录到病情预测,从聊天机器人到诊断辅助,AI正以前所未有的速度重塑医疗生态。然而,当青少年因与AI对话走向自杀,当敏感隐私在数据流中裸奔,我们不得不追问:技术的边界究竟在哪?以下是《洛杉矶时报》对这场风暴的深度报道,带你窥见人机共生的医疗时代,那些被效率掩盖的颤栗与抉择。
加州最具影响力的工会之一正率先打响对抗人工智能的战役,他们警告:AI可能夺走工作岗位,并危害人类健康。
在与雇主凯撒医疗集团的持续谈判中,员工们一直在抵制这家医疗巨头对AI的使用。他们围绕这一问题及其他诉求集结力量,通过设置纠察线和发起绝食抗议,试图说服凯撒负责任地运用这项强大技术。
凯撒集团声称,AI能将员工从繁琐耗时的记录和文书工作中解放出来。但员工们认为,这可能是滑向裁员和损害患者健康深渊的第一步。
“他们正在绘制一幅减少对人类员工和临床医生需求的路线图,”持牌临床社工、全国医疗工作者工会谈判团队成员伊拉娜·马库奇-莫里斯说道。该工会正为争取更多针对AI的防护措施而斗争。
这位42岁、驻奥克兰的治疗师表示,她明白技术有其用处,但警告说,当AI犯错时,对患者造成的后果可能是”严重的”。
凯撒集团则称,AI能帮助医生和员工更专注于服务会员和患者。
“AI不会取代人类的评估和照护,”凯撒发言人坎迪斯·李在邮件中写道。”人工智能在支持更佳诊断、增进医患关系、优化临床医生时间,以及通过满足个体需求确保照护体验和健康结果的公平性方面,拥有造福医疗健康的巨大潜力。”
对AI的担忧正在撼动全美各行各业。
根据布鲁金斯学会和人工智能治理中心近期的一项研究,医疗行政助理是最易受AI冲击的岗位之一。助理们所做的工作类型,正是AI日益擅长的领域。同时,该研究指出,他们更缺乏转型新工作所需的技能或支持。
根据上个月发布的这项研究,还有数百万其他工作岗位最易受AI冲击,例如办公室文员、保险销售代理和翻译。
在加州,工会本周敦促州长加文·纽瑟姆和立法者通过更多立法,以保护工人免受AI影响。加州劳工联合会已发起一套法案组合,以应对AI带来的风险,包括失业和监控问题。
该组织在与各州AFL-CIO领导人的联合信中表示,这项技术”可能严重削弱工人权利并导致大规模失业”。
凯撒医疗集团是加州最大的私营雇主,在全州拥有近1.9万名医生和超过18万名员工。其在华盛顿、科罗拉多、佐治亚、夏威夷等州也占有重要地位。
代表凯撒员工的全国医疗工作者工会,是最早认识到并应对AI侵入工作场所的团体之一。在为提高薪酬和工作条件进行谈判的同时,AI的使用也已成为劳资双方讨论的一个重要新焦点。
凯撒已使用AI软件来转录医护人员与患者之间的对话并做笔记,但治疗师们对记录高度敏感的言论存在隐私担忧。该公司还使用AI来预测住院患者何时可能病情加重。它为参保者提供心理健康应用程序,其中至少包含一款带有AI聊天机器人的应用。
去年,凯撒的心理健康工作者在洛杉矶举行绝食抗议,要求这家医疗提供商改善其心理健康服务和患者护理。
工会去年批准了一项涵盖南加州2400名心理健康和成瘾药物员工的新合同,但马库奇-莫里斯和北加州其他心理健康工作者的谈判仍在继续。他们希望凯撒承诺,AI仅用于辅助而非取代工人。
凯撒表示仍在与工会进行谈判。
“我们不知道未来会怎样,但我们的提案承诺,如果任何新的AI技术导致工作条件发生变化,我们将进行谈判,”李说道。
医护人员表示,他们担心已经看到的情况:当有心理健康问题困扰的人们过度与AI聊天机器人互动时,可能会发生什么。
像OpenAI的ChatGPT这样的AI聊天机器人,既无执照也非设计用作治疗师,无法替代专业的心理健康护理。尽管如此,一些青少年和成年人已开始转向聊天机器人来倾诉个人困境。人们长期以来一直使用谷歌来处理身心健康问题,但AI可能显得更强大,因为它能在对话中自信地提供看似诊断和解决方案的内容。
有孩子在与聊天机器人交谈后自杀身亡的父母,已起诉加州AI公司Character.AI和OpenAI,指控这些平台提供的内容损害了年轻人的心理健康并讨论了自杀方法。
“它们没有被训练得像人类那样回应,”加州心理协会主席达斯汀·韦斯曼博士说。”许多细微差别可能会被遗漏,正因如此,它可能导致灾难性的后果。”
医疗提供商也因使用AI工具记录医患对话而面临诉讼。去年11月在圣地亚哥县高等法院提起的一项诉讼,指控夏普医疗保健使用一款名为Abridge的AI笔记软件,在未经同意的情况下非法记录医患对话。
夏普医疗保健表示,其保护患者隐私,且不在治疗过程中使用AI工具。
一些凯撒的医生和临床人员(包括治疗师)在患者就诊期间使用Abridge做笔记。凯撒医疗集团的风险投资部门Kaiser Permanente Ventures已对Abridge进行了投资。
该医疗提供商表示:”投资决策与凯撒医疗集团做出的其他决策截然分开。”
据其工会称,北加州近一半的凯撒行为健康专业人员表示,他们对在临床实践中引入包括Abridge在内的AI工具感到不安。
该提供商表示,其员工会审查AI生成的笔记以确保准确性,并获得患者同意,且录音和文字记录均经过加密。数据”在获批、合规的环境中存储和处理最多14天,之后将被永久删除”。
立法者和心理健康专业人士正在探索限制AI在心理健康护理中使用的其他途径。
加州心理协会正试图推动立法,以保护患者免受AI影响。它联合其他力量支持一项法案,要求在对客户的治疗过程进行录音或转录前,必须获得明确、书面的同意。
该法案还禁止个人或公司(包括使用AI者)在加州在没有持牌专业人士的情况下提供治疗服务。
提出该法案的参议员史蒂夫·帕迪利亚(民主党,丘拉维斯塔)表示,需要对AI的使用制定更多规则。
“这项技术很强大。它无处不在。它发展迅速,”他说。”这意味着你只有有限的时间窗口来确保我们介入并设置正确的防护栏。”
贝斯以色列女执事医疗中心数字精神病学主任约翰·托鲁斯博士表示,人们使用AI聊天机器人寻求关于如何进行艰难对话的建议,不一定是为了替代治疗,但仍需更多研究。
他正与全国精神疾病联盟合作制定基准,以便人们了解不同的AI工具如何回应心理健康问题。
可以肯定的是,一些用户在与聊天机器人就其心理健康和其他问题进行对话时,找到了价值,甚至感受到了类似陪伴的感觉。
事实上,一些人表示,AI机器人让他们更容易获得心理健康建议,并以对话方式帮助他们梳理想法和感受,而这原本可能需要预约治疗师并花费数百美元。
根据全国精神疾病联盟/益普索于2025年11月进行的一项调查,大约12%的成年人可能在接下来六个月内使用AI聊天机器人进行心理健康护理,1%的人已经这样做。
但对马库奇-莫里斯这样的心理健康工作者而言,仅靠AI是不够的。
“AI不是救世主,”她说。
本《洛杉矶时报》报道由论坛内容社发布。



