研究人员使用环境正义问题来揭示ChatGPT中的地理偏见

   日期:2025-02-23     来源:本站    作者:admin    浏览:135    
核心提示:      弗吉尼亚理工大学的研究人员发现,ChatGPT在提供有关环境正义问题的特定地点信息方面存在局限性。他们的研究结果发

  

  Researchers use enviro<em></em>nmental justice questions to reveal geographic biases in ChatGPT

  弗吉尼亚理工大学的研究人员发现,ChatGPT在提供有关环境正义问题的特定地点信息方面存在局限性。他们的研究结果发表在《远程信息处理与信息学》杂志上,表明当前生成式人工智能(AI)模型中存在地理偏差的可能性。

  ChatGPT是人工智能研究机构OpenAI Inc.开发的大语言模型。ChatGPT旨在理解问题并根据用户的请求生成文本响应。该技术具有广泛的应用范围,从内容创建和信息收集到数据分析和语言翻译。

  首尔大学自然资源环境学院助理教授金贞焕表示:“作为地理学家和地理空间数据科学家,生成人工智能是具有强大潜力的工具。“与此同时,我们需要调查这项技术的局限性,以确保未来的开发人员认识到偏见的可能性。这就是这项研究的驱动动机。”

  利用美国3108个相邻县的名单,研究小组要求ChatGPT界面回答一个关于每个县环境正义问题的提示。研究人员选择环境正义作为一个主题,以扩大通常用于测试生成式人工智能工具性能的问题范围。通过按县提问,研究人员可以根据人口密度和家庭收入中位数等社会人口因素来衡量ChatGPT的反应。

  在对人口众多的县进行调查后,该生成式人工智能工具显示出了在人口密集的大型地区识别特定地点环境正义挑战的能力,其中包括人口10,019,635的加利福尼亚州洛杉矶县和人口83的德克萨斯州拉文县。但是,该工具在确定和提供有关当地环境正义问题的背景资料方面的能力有限。

  ChatGPT能够提供特定位置的信息布特enviro在3018个县中,只有515个县出现了政府司法问题,占17%。

  在爱达荷州和新罕布什尔州等农村州,超过90%的人口居住在无法接收当地特定信息的县。

  在城市人口较多的州,如特拉华州或加利福尼亚州,不到1%的人口居住在无法接收特定信息的县。

  随着生成式人工智能成为获取信息的新门户工具,测试建模输出中的潜在偏差是改进ChatGPT等程序的重要组成部分。

  在地理系任教的Kim说:“虽然还需要更多的研究,但我们的发现表明,目前在ChatGPT模型中存在地理偏见。”“这是一个起点,研究程序员和人工智能开发人员如何能够预测和减轻大城市和小城市之间、城市和农村环境之间的信息差异。”

  Kim之前发表过一篇关于ChatGPT如何理解美国和加拿大的交通问题和解决方案的论文。他的智慧城市研究小组探索使用地理空间数据科学方法和技术来解决城市社会和环境挑战。

  工程学院的助理教授Ismini Lourentzou是这篇论文的合著者之一,他列举了诸如ChatGPT这样的大语言模型的三个进一步研究领域:

  完善本地化和co基于上下文的知识,从而减少地理偏见

  保护像ChatGPT这样的大型语言模型,防止出现模棱两可的用户指令或反馈等具有挑战性的场景

  提高用户意识和政策,使人们更好地了解优势和劣势,特别是围绕敏感主题

  “大语言模型的可靠性和弹性存在很多问题,”洛伦佐说,他在计算机科学系任教,是桑哈尼人工智能和数据分析中心的下属机构。“我希望我们的研究可以指导进一步的研究,以增强ChatGPT和其他模型的能力。”

  更多信息:Junghwan Kim等人,探索ChatGPT在美国引入环境正义问题的局限性:以3108个县为例,Telematics and Informatics(2023)。引文:研究人员使用环境正义问题来揭示ChatGPT(2023, 12月16日)中的地理偏见,检索自2023年12月18日的https://techxplore.com/news/2023-12-environmental-justice-reveal-geographic-biases.html。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行