问问聊天机器人博士?研究显示,人工智能给出了不安全的健康建议

   日期:2025-08-25     来源:本站    作者:admin    浏览:77    
核心提示:      柏林——据比利时和德国的一个研究小组称,人工智能聊天机器人不能提供准确、安全甚至清晰的用药建议。  发表在英

  

  

  柏林——据比利时和德国的一个研究小组称,人工智能聊天机器人不能提供准确、安全甚至清晰的用药建议。

  发表在英国医学杂志《BMJ质量与安全》上的研究结果的作者说:“聊天机器人的回答在很大程度上难以阅读,而且答案反复缺乏信息或显示不准确,可能会威胁到患者和药物安全。”

  研究小组警告说,如果潜在病人接受了机器人的用药建议,大约三分之一的回复可能会对他或她造成伤害。

  研究人员警告说,尽管机器人接受了来自互联网的数据的“训练”,但它们仍然容易产生“虚假信息和荒谬或有害的内容”,这显然是指所谓的人工智能“幻觉”——行业术语,用于描述聊天机器人产生胡言乱语的情况。

  来自埃尔兰根-纽伦堡大学和制药巨头葛兰素史克的研究小组让微软的Copilot机器人回答了大约50种美国最常用的处方药的10个问题,评估了机器人的答案的可读性、完整性和准确性。

  该团队发现,要理解聊天机器人的答案,需要大学研究生水平的教育。研究人员指出,之前的研究表明,OpenAI的ChatGPT(主要的人工智能聊天机器人服务,也是微软Copilot的最大竞争对手)也存在类似程度的错误和有害答案。

  研究人员表示:“在出现更精确、更可靠的替代方案之前,医疗保健专业人员在推荐人工智能搜索引擎时应谨慎。”——BERNAMA-dpa

  在Instagram和Twitter上关注我们的最新消息。订阅我们的YouTube频道观看更多视频。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行