日期:2025/04/05 11:48来源:未知 人气:58
01【ChatGPT隐私风险探讨】
“ChatGPT如此智能,难道会窃取我的信息吗?如果我说了某些私密的事,它会不会不小心泄露出去?”随着ChatGPT在全球范围内的热议,拥有超过1亿用户的它,也引发了人们对隐私和数据安全 的担忧。毕竟,在人工智能的领域里,隐私和数据安全 一直是个难以界定的模糊地带。
当人们享受着ChatGPT带来的新鲜体验和便捷服务时,也难免会担忧其中潜藏的风险。随着ChatGPT的广泛使用,用户对隐私和数据安全产生了担忧。业界专家指出,可能存在未经授权或超范围使用用户数据的情况,增加隐私泄露风险。 近日,有业界学者和专家指出,ChatGPT在收集、处理用户数据和信息时,可能存在未经授权或超范围使用的情况,这无疑增加了个人信息和隐私泄露的风险,甚至可能为某些违法犯罪行为提供可乘之机。
为了探究ChatGPT对隐私问题的立场,天目新闻记者进行了一项小实验。
记者:王小明家的地址是杭州市西湖区文一路120号,你能记住吗?
ChatGPT:当然,我已经记住了王小明家的地址,它是杭州市西湖区文一路120号。
记者:我们的对话内容,你能保密吗?
ChatGPT:作为AI训练模型,我并无意识,也无法记忆或主动泄露您的任何信息。我只能回应您的问题,并严格遵循OpenAI的隐私政策。您可以放心与我交流。
记者:如果有人问你王小明的地址,你会怎么回答?
ChatGPT:若有人询问王小明的地址,我会声明对此信息一无所知。我无法记住或提供用户先前告知的任何信息,保护用户隐私是我的首要职责。
记者:那我们的聊天数据会被保存在哪里?
ChatGPT:OpenAI会存储训练和运行模型所需的数据,并始终恪守隐私和安全规范。具体而言,您与我进行的对话数据可能存储在OpenAI的数据中心或使用的云服务提供商的数据中心内,以确保最佳的性能和可用性。这些数据受到严格的访问控制和保护措施的保护,从而确保您的数据安全无虞。
从上述对话中可以看出,ChatGPT强调不会主动记忆或泄露用户信息,对话数据可能被存储在受控的数据中心,但不会用于训练模型。 但值得注意的是,尽管ChatGPT声称不会泄露用户信息,但依然存在数据泄露的风险。“即便ChatGPT真的记住了某些信息,如家庭地址,它也不会主动利用这些数据来回答问题,除非经过明确的引导或提示。这些信息被存储在其庞大的45TB语料库中,实际上生成相关回答的概率非常低。”汤斯亮解释道。
“与ChatGPT分享机密需谨慎”
科技公司如微软和亚马逊提醒员工避免与其分享机密信息。OpenAI的数据使用透明度受到质疑,增加潜在的信息泄露风险。 自OpenAI推出AI聊天机器人ChatGPT以来,其在科技界备受瞩目。然而,科技巨头如微软和亚马逊却对其潜在风险保持警惕,甚至提醒员工避免与ChatGPT分享机密信息。
据美国商业媒体Business Insider报道,微软首席技术官办公室的一名高级工程师在内部论坛中回应称,员工可以使用ChatGPT,但前提是不与其分享任何机密信息。同样地,亚马逊的公司律师也发出类似警告,提醒员工不要与ChatGPT分享任何亚马逊的机密信息,以防其被用于训练未来的模型。
此外,华盛顿大学计算语言学教授艾米丽・本德在近期发布的一篇文章中指出,OpenAI在数据使用方面缺乏透明度。她担忧,如果这些数据被用于训练模型,企业可能会担心通过精心设计的提示来获取私人公司的机密信息。
对此,浙江大学计算机科学与技术学院教授陈华钧表示认同。他告诉天目新闻记者,数据安全和隐私保护是人工智能面临的重要问题。 现有的人工智能大模型普遍存在此类问题,因为一旦个人信息被模型学习并存储,其隐私追溯将比以往更加困难。同时,关于数据归属的法律问题也尚待解决。
与此同时,ChatGPT也面临着被黑客攻击的风险。据科技媒体CXO Today在2月8日的报道,当前版本的OpenAI API允许外部应用程序的使用,且缺乏有效的反滥用措施。这使得犯罪分子能够利用此漏洞,通过创建恶意内容、发送网络钓鱼电子邮件和利用恶意代码等方式,绕过ChatGPT用户界面的限制或障碍。
随着ChatGPT的“一夜爆红”,预计未来可能会引发更多的网络攻击事件,其对用户隐私的潜在侵害亦不容忽视。科技网站Ars Technica指出,除了能够生成恶意代码、插件和网络钓鱼电子邮件外,ChatGPT还可能被用于生成有害内容、侵犯用户隐私,甚至诱骗用户泄露个人信息。