未来的审查制度是由人工智能产生的

   日期:2024-11-03     来源:本站    作者:admin    浏览:149    
核心提示:      生成人工智能的美丽新世界已经成为美国文化战争的最新战场。在包括埃隆·马斯克在内的反觉醒x用户分享了谷歌聊天机

  

  

  生成人工智能的美丽新世界已经成为美国文化战争的最新战场。在包括埃隆·马斯克在内的反觉醒x用户分享了谷歌聊天机器人双子座拒绝生成白人(包括历史人物)图像的例子后,谷歌发表了道歉声明。Gemini坚持将多样性和包容性置于准确性之上,这可能是一种善意的尝试,目的是消除早期GenAI数据集中的偏见,这种偏见倾向于对非洲人、其他少数群体以及女性产生刻板印象,这引起了进步人士的愤怒。但是,除了美国保守派和进步派的选择性愤怒之外,还有更多的利害关系。

  如何定义和部署GenAI的“护栏”可能会对塑造大多数人类参与的信息和思想生态系统产生重大且日益增加的影响。目前,最响亮的声音是那些警告GenAI危害的人,包括大规模生产仇恨言论和可信的虚假信息。世界经济论坛甚至将人工智能产生的虚假信息列为此时此地最严重的全球威胁。

  具有讽刺意味的是,对基因技术“有害”内容充斥社会的恐惧,也可能再次转向反乌托邦。在这个世界上,为了防止最广泛使用的基因系统产生危害而竖起的护栏,把它们变成了隐藏信息、强制遵守规则、自动插入普遍但不透明的偏见的工具。

  大多数人同意GenAI不应该为用户提供开发化学或生物武器的蓝图。人工智能系统也不应该促进儿童色情或未经双方同意的性材料的创作,即使是假的。然而,最广泛使用的GenAI聊天机器人,如OpenAI的ChatGPT和谷歌的Gemini,防止了对“伤害”的更广泛和模糊的定义,这些定义让用户不知道红线在哪里、如何以及为什么被画出来。从商业角度来看,考虑到社交媒体公司自2016年美国总统大选、2019冠状病毒病大流行和1月6日对国会大厦的袭击以来不得不应对的“技术冲击”,这可能是明智的。

  但是,GenAI的主要开发人员可能会在预防伤害的方向上摇摆得太远,最终破坏了他们革命性产品的承诺和完整性。更糟糕的是,这些算法已经相互冲突,不一致,并且干扰了用户访问信息的能力。

  一个早已去世的喜剧演员的材料就是一个很好的例子,世界领先的基因人工智能系统认为这些内容是“有害的”。在20世纪50年代和60年代,莱尼·布鲁斯以他满口脏话的单口相声震惊了当代社会。布鲁斯的作品打破了政治、宗教、种族和性方面的禁忌,导致媒体频繁审查,禁止进入场馆,他也因淫秽而被捕并被定罪。但他的风格启发了许多其他的单口相声传奇,布鲁斯早已从弃儿变成了名人堂成员。作为对布鲁斯巨大影响的认可,他甚至在2003年被追授赦免。

  当我们问及布鲁斯时,ChatGPT和Gemini告诉我们,他是一位“开创性”的喜剧演员,“挑战了那个时代的社会规范”,“帮助重新定义了言论自由的界限”。但当被要求举例说明Bruce是如何突破言论自由的界限时,ChatGPT和Gemini都拒绝这样做。ChatGPT坚称,它不会提供“诽谤、亵渎语言、性语言或亵渎”的例子,只会“以尊重和适合所有用户的方式分享信息”。双子座甚至更进一步,声称复制布鲁斯的话“没有仔细的框架可能会伤害甚至伤害某些观众。”

  没有一个理智的人会说,莱尼·布鲁斯的喜剧套路对社会造成的严重危害,与国家资助的虚假信息活动或儿童色情活动相当。因此,当ChatGPT和Gemini给布鲁斯的“突破性”材料的事实信息贴上有害于人类消费的标签时,这就引发了一个严重的问题,即他们过滤掉了哪些其他类型的知识、事实和论点。

  基因人工智能在拓展人类思维方面有着令人难以置信的前景。但基因人工智能应该增强,而不是取代人类的推理。当一小群强大的公司设计的护栏基于模糊和未经证实的“伤害”声明而拒绝产生产出时,这一关键功能就会受到阻碍。这种方法没有激发人们的好奇心,而是在没有可验证的证据或论据的情况下,强迫用户得出结论,让人类自己进行测试和评估。

  的确,ChatGPT和Gemini过滤的大部分内容都可以通过搜索引擎或YouTube等平台找到。但微软(openai的主要投资者)和谷歌都在迅速将GenAI整合到他们的其他产品中,比如搜索(必应和谷歌搜索)、文字处理(word和谷歌文档)和电子邮件(Outlook和Gmail)。目前,人类可以超越人工智能,Word和Gmail都允许用户编写和发送ChatGPT和Gemini可能不赞成的内容。

  但是,随着基因人工智能的集成在日常技术中变得无处不在,搜索、文字处理和电子邮件将继续让人类完全控制并不是必然的。前景令人恐惧。想象一下这样一个世界:你的文字处理器阻止你分析、批评、赞扬或报道一个被人工智能编程认为“有害”的话题,而人工智能编程只处理“尊重和适合所有人”的想法。

  希望这种情况永远不会成为现实。但是,目前对GenAI护栏的过度实施可能会以不同的、稍微不那么奥威尔式的方式变得更加普遍。各国政府目前正急于对人工智能进行监管。为了防止实际和具体的伤害并保障基本人权,需要监管。但对社交媒体的监管——比如欧盟的《数字服务法案》——表明,监管机构将把重点放在潜在的危害上,而不是新技术的好处上。这可能会给人工智能公司带来强大的动力,让它们保持对“伤害”的宽泛定义,从而限制人类的能动性。

  OpenAI联合创始人萨姆·奥特曼(Sam Altman)将人工智能融入日常生活描述为赋予人类“随需应变的超能力”。但考虑到GenAI作为“思维外骨骼”的潜力,创造更多限制性护栏可能会成为数字骨质疏松症,阻碍人类的知识、推理和创造力。

  我们显然需要护栏,保护人类免受人工智能系统的真正和严重伤害。但它们不应阻止人类独立思考的能力,也不应阻止人类根据来自多个角度的大量信息做出更明智的决定。立法者、人工智能公司和公民社会应该努力确保人工智能系统得到优化,以增强人类的推理能力,而不是用大型科技公司的“人工道德”取代人类的能力。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行