奥特曼:ChatGPT的数据可能会被用来对付你

与 ChatGPT 讨论您最私密的事务时,您可能会发现自己没有任何保护:与律师或医生的对话不同,在这里您的话可能成为法律证据。

与ChatGPT的对话为何存在风险?

根据OpenAI的首席执行官Sam Altman的说法,与享有所谓“法律特权”的人交谈(如律师、医生或治疗师)与与ChatGPT互动之间存在实质性差异。尽管您与专业人士的机密信息受到特定法规的保护,但在与人工智能的聊天中并不存在这种保护。Altman在与Theo Von的播客《这个周末》采访中将这一缺失描述为“一个巨大问题”。

在实践中,如果发生法律案件或调查,法院可能会要求获取与ChatGPT的讨论内容。这是许多用户低估的风险,今天越来越多的人与AI系统分享个人问题和非常敏感的数据。

AI没有“法律特权”意味着什么?

法定特权的概念确保某些沟通保持机密,不能在法庭上用于对付该人。目前,当你与律师、医生或治疗师交谈时,你的话受此制度保护。然而,阿特曼指出:

“我们在与ChatGPT交谈时尚未解决这一方面。”

这有一个直接的后果:在争议发生时,任何通过平台分享关键数据或供词的人,都可能在法庭上被曝光。

这种担忧更加突出,因为正如阿特曼的采访所强调的,人工智能在金融、心理和医疗援助中的使用正在迅速增加。在这种情况下,缺乏法律保护有可能成为一种系统性的脆弱性。

ChatGPT和隐私的新规:我们处于何种状态?

山姆·奥特曼不仅仅是敲响了警钟:他表示他正在与政策制定者和立法者进行对话,他们意识到需要紧急干预。然而,明确的立法尚未被定义。“这就是为什么有时我害怕使用某些人工智能工具的原因之一,”奥特曼声明,“因为我不知道多少个人信息会保持私密,以及谁将获得这些信息。”

因此,需要一个更新的监管框架,至少在某种程度上将人工智能的数据保护与医疗和法律专业人士的受保护交流相提并论。但这条路仍然很漫长,目前,责任仍然在用户身上。

监控与人工智能:它能走向何方?

另一面的问题是监控的增加。阿尔特曼的担忧是,人工智能的加速发展将导致政府对数据的更大控制。他说:“我担心世界上人工智能越多,监控就会越增强。”这种担忧是有道理的,因为出于国家安全或防止非法活动的原因,政府可以轻易请求访问人工智能的对话。

奥特曼明确区分了对某种妥协的需求——“我愿意为了集体安全放弃一些隐私”——以及政府“显然走得太远”的风险,正如历史上常常发生的那样。因此,这个警告有两个方面:不仅在ChatGPT上隐私没有得到保障,而且未来的趋势有可能以控制和预防的名义进一步限制隐私。

使用ChatGPT的人会面临哪些变化:具体风险和最佳实践

如果你使用ChatGPT来获取细致的建议——无论是心理、医疗还是法律性质的——你必须意识到你的数据上没有任何保护过滤器在运行。如果明天你卷入诉讼或调查,那些信息可能会被合法请求并用来对付你。

目前,唯一真正的解决方案是避免在与AI的聊天中输入敏感的个人数据或关键的揭示。在等待监管的同时,这是OpenAI的领导者推荐的最佳实践。请始终记住,即使删除聊天记录也并不能提供绝对的不可访问保证。

现在有没有保护自己的办法?接下来会发生什么?

在个体层面,建议保持最大谨慎:目前没有任何技术工具可以保证与ChatGPT的对话具有“法律特权”。如果您想立即行动,请限制使用一般性或非可识别的问题,将敏感内容推迟到适当的场合。

然而,法律辩论才刚刚开始。根据阿尔特曼的说法,“快速的政治行动”将是保护用户隐私和自由在人工智能时代的真正需要。行业运营商和立法者中,谁将第一个采取行动来填补这一空白,仍有待观察。

ChatGPT和人工智能的隐私未来仍然开放:在接下来的几个月里,立法加速与大科技公司的新政策之间一切都岌岌可危。关注社区讨论,保持更新:拥有真正隐私的权利与人工智能绝非理所当然。

NOT-6.81%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)