
【编者按】在人工智能浪潮席卷全球的今天,OpenAI推出的语音转录工具Whisper曾以"接近人类水平的精准度"惊艳科技圈。然而这把"智能利刃"正显现出令人胆寒的裂痕——它会凭空编造医疗方案、杜撰种族歧视言论、甚至虚构暴力内容。更令人忧心的是,就在OpenAI明确警示"禁止用于高风险领域"的同时,全球医疗机构正争相将其投入医患问诊记录。当算法幻觉渗透进生死攸关的医疗决策,当26,000份转录文本中几乎每份都掺杂虚构,我们是否正放任科技罔顾生命尊严?这场由代码编织的海市蜃楼,终将由谁来付出代价?
旧金山(美联社)—科技巨头OpenAI曾大肆宣传其人工智能转录工具Whisper具有近乎"人类水平的稳健性和准确度"。
但Whisper存在致命缺陷:根据对十余位软件工程师、开发人员和学术研究人员的访谈,该工具经常凭空编造大段文字甚至整句话。专家指出,这些被称为"算法幻觉"的虚构内容可能涉及种族评论、暴力言论,甚至臆造医疗方案。
专家警告,这类杜撰内容危害巨大,因为Whisper正被全球众多行业用于采访翻译转录、流行消费科技产品的文本生成,以及视频字幕制作。
更令人不安的是,尽管OpenAI明确警告该工具不可用于"高风险领域",多家医疗中心仍争相采用基于Whisper的工具来记录医患问诊内容。
虽然难以估量问题全貌,但研究人员和工程师表示工作中频繁遭遇Whisper的幻觉现象。例如密歇根大学一位研究公共会议的学者透露,在他着手改进模型前,检查的音频转录文件中八成出现幻觉内容。
有位机器学习工程师坦言,在他分析的超100小时Whisper转录内容中,最初发现约半数存在虚构。第三位开发者更指出,用Whisper生成的26,000份转录文本中,几乎每份都掺杂幻觉。
即便在录音质量良好、时长简短的音频样本中,问题依然存在。计算机科学家最新研究显示,在检测的13,000余条清晰音频片段中竟发现187处幻觉。
研究人员警告,按此趋势,百万次录音中将出现数万次错误转录。

