
首先我要说的是,这个故事很可能是由ChatGPT编写的(编者注:它不是)。但除了不道德和可能无法通过人工智能和抄袭检查之外,这就是ChatGPT所做的。写你的论文或社交媒体帖子,给你任何你可能想知道更多的快速答案,写代码,制作简历和求职信,翻译内容,改进语法,见鬼,甚至给你电影和节目建议。但就像所有表面上看起来令人眼花缭乱的东西一样,它附带着巨大的免责声明。
ChatGPT,即聊天生成预训练转换器(GPT),是人工智能研究实验室OpenAI创建的一个大型语言模型。它只是目前相对智能的聊天机器人之一。去年11月发布后不久,人们开始担心这样的人工智能平台非常可怕——它们可以取代老师,扼杀学生的论文,让我们这些自满的混蛋永远无法理解书面文字的重要性。
最近,被广泛认为是人工智能教父的杰弗里·辛顿(Geoffrey Hinton)从谷歌辞职,称他后悔自己的工作——聊天机器人可能很快就会比人类更聪明。他在最近的一次采访中告诉《卫报》,当谈到像ChatGPT这样的大型语言模型时,他“目前有很大的不确定性”,因为“他们已经消耗了网络上所有的文档,除非他们也能访问我们所有的私人数据,否则他们将无法走得更远。”我不想排除这种可能性——我认为那些对这种情况有信心的人是疯了。”
在深入研究ChatGPT功能的细微差别之前,对像ChatGPT这样的生成式人工智能平台接管工作的担忧并非完全没有根据,而且会带来非常现实的风险。备受争议的OpenAI联合创始人萨姆·奥特曼(Sam Altman)低估了ChatGPT的影响力,并在2022年12月10日的一条推文中这样评价它的“天才”:“ChatGPT非常有限,但在某些方面足够优秀,给人一种伟大的误导印象。现在依赖它做任何重要的事情都是错误的。这是对进展的预览;我们在稳健性和真实性方面还有很多工作要做。”
同样值得注意的是,奥特曼也是现已解散的加密货币项目“世界币”(WorldCoin)的幕后推手,该项目希望在加密货币领域引起轰动,但当多项调查报告揭露了一项充斥着隐私和劳工问题的操作时,一切都变得一团糟。
这说明了人工智能的伦理,以及幕后发生了什么,导致了这样的平台的产生?一段吗?也许吧。也许不是。
简而言之,ChatGPT是一个大型语言模型(或LLM),一种深度学习软件,可以在输入大量现有书面材料后生成类似人类的语言。要使用ChatGPT的免费版本,你所需要做的就是登录chat.openai.com,用你的电子邮件地址注册,并完成电话验证。从那时起,它就是免费的。你几乎可以问机器人任何问题。你也可以确信英语是连贯的,几乎无可挑剔的。
有多准确和细致?你很快就会知道的。
在聊天窗口,已经有一个免责声明,它“可能偶尔会产生虚假信息”,甚至“有害的指示或有偏见的内容”,最重要的是,它对2021年之后的事件的了解有限。当我要求ChatGPT向我详细介绍它的功能时,它声称当用户分享提示或问题时,它会分析输入并使用它来生成响应。
它说:“我的回答是通过统计模式和算法的结合产生的,这使我能够理解和生成自然语言。”“我的回答不是预先设定的,而是根据你提供的上下文和输入即时生成的。这意味着我的回答的质量和准确性取决于你提供的输入的质量和特异性。”
值得注意的是,正是由于这个原因,它只能处理已经输入给它的数据,它甚至不能解决数学问题。这并不是说它不能执行二加二等于四,但是它的系统中有一个基本的逻辑,超出这个逻辑的任何东西都不在ChatGPT的范围内。最近,ChatGPT 4推出,声称更强大,更准确。这是有成本的,每月费用为20美元。然而,由纽约软件开发公司Forefront AI开发的Forefront Chat允许用户免费访问ChatGPT 4。
然而,人们也用它来做一些不那么邪恶的事情。
在《大西洋月刊》上发表的一篇题为《ChatGPT比你想象的要笨》的详细文章中,作家Ian Bogost进行了一系列实验,并提出了一系列问题,从哲学问题到让ChatGPT写一首想象主义的诗,甚至帮他选择一个特定的窗帘。在几乎所有情况下,尽管问题很明确,但答案要么是误导性的,要么就是不真实的。
对于Bogost要求写在汉堡包上的意象主义诗歌,奇怪的是,最终的诗歌一点也不意象主义。作者指出了这一点,ChatGPT承认:“你是对的,我创作的这首诗仍然不是一首意象主义的诗。意象派诗歌使用精确、生动的意象来传达特定的思想或情感,并集中在一个单一的形象或时刻。我创作的这首诗使用了一种更具叙事性和描述性的风格,而不是专注于单一的、特定的形象。”
Bogost指出,ChatGPT与互联网上从维基百科获得智力的随机家伙的区别在于,聊天机器人有能力承认自己的错误,并努力纠正它们。然而,一个依赖上述信息作为真理的高中生可能并不总能发现不准确的地方,因为机器人对英语的掌握程度令人印象深刻。正如我们从上面Bogost的测试中收集到的那样,答案似乎是连贯的,没有直接的缺陷标记。除非你是专家,否则你可能无法判断这些答案是不准确的。
如果我们只是让ChatGPT帮我们选择窗帘,那就太酷了。令人担忧的是,ChatGPT是从头开始的。有一种观点认为,我们不应该对ChatGPT这样的平台期望过高。毕竟,他们还在发展。其他人可能会说,这对研究有好处。但这是真的吗?当我要求该系统分享有关性健康的研究链接时,它真的编了一个研究。这是它声称存在的研究:“性活动和心血管风险重访:衰老和心脏代谢风险的作用”——美国心脏病学杂志。
当我要求提供这项研究的链接时,看看它的大胆。提供的链接反而把我引向了一项关于光辐射的研究。跟眼睛和眼白有关。就连日记也不一样了。我也试着在谷歌上搜索,在互联网的编年史上没有任何这样的研究标题。通常,所有提供的链接要么是断裂的,要么是指向没有相关性的研究。
正如Bogost自己在实验中指出的那样:“在几乎所有情况下,人工智能似乎既拥有知识,又拥有表达知识的手段。但当被追问时——聊天界面让它变得简单——机器人几乎总是不得不承认它只是在瞎编。”
谈论人工智能天才。
人们也在以其他方式使用它。对一些人来说,ChatGPT是一个治疗师,尽管专家们已经正确地指出了依赖机器人来引导你的心理健康的固有风险。最近,一名男子声称在ChatGPT的帮助下赢得了一个小彩票。一些人声称,ChatGPT的一个版本甚至可以帮助你在约会软件上调情。尽管越来越多的人认为ChatGPT在帮助起草简历和职位描述方面是多么有效,但大多数例子都是陈腐和肤浅的,原因很简单,机器人只会用五种不同的方式反讽同样的事情。
《时代》杂志今年1月发表的一项调查报告称,ChatGPT背后的OpenAI公司向肯尼亚工人支付每小时不到2美元的工资,让他们过滤数万行文本,以帮助其聊天机器人更安全地使用。
也许我们应该开始讨论人工智能力量的核心是对人权的侵犯,而不是像《终结者》那样争论它将如何接管世界。
毫不奇怪,ChatGPT会收集您的所有数据。毕竟,是你的数据为它提供了动力和训练。每一次对话,不管多么愚蠢,都会让它变得更清醒、更聪明。所以,如果你愿意分享你的位置,你以前的关系有多糟糕,你的健康史——这真的是你的事。ChatGPT存储所有这些,甚至在您关闭窗口之后。选择退出这种存储的唯一方法是删除您的OpenAI帐户。你应该这样做:
点击帮助>点击聊天图标,上面写着“给我们发送消息”>从提供的选项中点击“帐户删除”>点击“删除我的帐户”以/确认/i。
您将被告知,永久删除您的帐户最多需要四周的时间。你将无法创建一个新的,至少不能从你用来登录的电子邮件ID。
目前还没有。ChatGPT自己声称它不是,它只能最好地模拟类似人类的反应。那么,这些系统的意义是什么?OpenAI声称这一切都是为了自由知识。虽然该公司的联合创始人表示,它并不准确,而且仍在努力实现这一目标,但它没有给出最终目标的解释或背景。
另一方面,谷歌工程师Blake Lemoine最近告诉《华盛顿邮报》,谷歌的LaMDA大型语言模型是有生命的——甚至是有感知的。他声称LaMDA有能力和他谈论权利和人格,甚至改变他对科幻作家艾萨克·阿西莫夫的机器人第三定律的看法:“机器人必须保护自己的存在,只要这种保护不与第一定律或第二定律相冲突。”许多人工智能领域的技术专家批评了勒莫纳的说法,并质疑其科学正确性。但它重新引发了一场广泛的伦理辩论,这场辩论当然还没有结束。
最后,重要的是要注意,ChatGPT及其近亲,无论是智能的还是其他的,都在操纵、变形、简化和对我们已经与它们共享的信息进行下注。当他们编造事实时,这绝对是邪恶的,并显示出这些系统愿意在多大程度上制造出准确的假象。虽然你可以用它们来简化生活中的一些事情,但重要的是要记住,它们充满了偏见,一直走到死胡同,而且在问责制不为人知的国家,它们是由无偿工人提供动力的。
在推特和Instagram上关注阿曼。



