担心将数据发送给聊天机器人?“PrivateGPT”来了

   日期:2025-09-29     来源:本站    作者:admin    浏览:88    
核心提示:    三星、摩根大通、苹果和亚马逊等公司都禁止员工使用ChatGPT,因为担心他们的机密信息会被泄露。ChatGPT由OpenAI拥有,它

  

  三星、摩根大通、苹果和亚马逊等公司都禁止员工使用ChatGPT,因为担心他们的机密信息会被泄露。ChatGPT由OpenAI拥有,它会根据用户输入的所有提示和消息进行持续训练。但是现在,对于那些害怕向在线聊天机器人泄露个人信息的人来说,有一个选择:PrivateGPT是一个开源模型,允许用户在没有互联网连接的情况下根据自己的文档提出问题。

  PrivateGPT是由一个名为Iván Martínez Toro的开发人员创建的,它可以在您的家用设备上本地运行,并且需要您首先下载一个名为gpt4all的开源大型语言模型(LLM)。然后,指示用户将所有相关文件放入一个目录中,以便模型摄取所有数据。在LLM接受培训后,用户可以向模型提出任何问题,模型将使用提供的文档作为上下文进行回答。PrivateGPT可以摄取超过58,000个单词,目前需要大量的本地计算资源(特别是一个好的cpu)来设置。

  Toro告诉Motherboard:“PrivateGPT目前处于概念验证阶段(POC),这是一个演示,证明了创建一个完全本地版本的类似chatgpt的助手的可行性,该助手可以在不离开计算机的情况下获取文档并回答有关文档的问题(它甚至可以离线运行)。”“很容易想象,将这种POC变成一种实际产品的潜力,使公司有可能通过访问他们自己的个性化、安全和私人聊天gpt来提高生产力。”

  托罗说,在看到ChatGPT在工作场所的价值之后,他开发了这款应用。“我现在公司的人事和法务部门已经使用ChatGPT几个星期了,我们最终用完了积分;他们都在那一刻联系了我,要求恢复访问权限,因为他们不想在没有它的情况下回去工作,”他告诉Motherboard。托罗还补充说,当法律部门想要使用ChatGPT总结一份私人法律文件,但由于隐私风险而无法完成时,他的同事们的经历变得更加困难。

  隐私已成为连接到企业服务器的在线人工智能模型的一个主要问题。今年4月,三名三星韩国员工不小心将敏感信息泄露给了ChatGPT。一名员工分享机密源代码以检查错误,另一名员工要求ChatGPT优化他们的代码,第三名员工分享会议记录,并要求聊天机器人将其转换为笔记。OpenAI的数据政策说它使用非api消费者数据来改进它的模型,然而,你可以在ChatGPT的设置中关闭它。据彭博社报道,在此事件发生后,该出版物禁止使用生成式人工智能,并试图创建自己的专有模型,以防止此类事件再次发生。

  除了公司范围内的风险外,个人一直不愿使用聊天机器人,因为担心泄露个人信息。意大利决定暂时禁止ChatGPT一个月左右,理由是担心该服务使用人们的个人信息,违反了欧盟的《通用数据保护条例》(GDPR),这是一项数据隐私法。在OpenAI满足意大利数据保护机构要求的条件后,ChatGPT后来被解禁,其中包括向用户提供透明的数据使用信息,并为用户提供纠正有关其个人数据的错误信息或完全删除信息的选项。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行