谷歌 AI 安全工程师:有些话我绝不会告诉聊天机器人——我遵循这4条规则安全使用 AI

谷歌工程师哈什·瓦尔什尼(Harsh Varshney)使用人工智能工具来帮助编写代码和做笔记。哈什·瓦尔什尼提供

来源:商业内幕

我在谷歌从事 AI 安全工作,有些事情,我绝不会告诉聊天机器人。为了安全使用 AI,我给自己立下了四条铁律。

如今,AI 已悄然成为我们日常生活中的“隐形伙伴”,坦白说,我已经很难想象没有 AI 工具的生活。它们每天帮助我进行深度研究、记录笔记、编写代码和搜索资料。

但正因为我的工作,我对使用 AI 所涉及的隐私风险格外警惕。我自 2023 年加入谷歌,曾在隐私团队担任软件工程师,负责构建保护用户数据的基础设施。随后,我转入 Chrome 的 AI 安全团队,主要任务是防范黑客攻击,以及那些利用 AI 自动化工具实施网络钓鱼的行为。

AI 模型依赖数据生成有用的回答,而作为用户,我们必须保护好自己的私人信息,防止网络犯罪分子或数据掮客获取这些内容。

以下是我长期坚持的 4 个使用 AI 的习惯,我认为这是在 AI 时代保护个人数据的关键。


一、把 AI 当成“公开明信片”

有时,人们会对 AI 产生一种虚假的亲密感,从而在网上分享原本绝不会公开的信息。即便 AI 公司设有隐私保护团队,也绝不应向聊天机器人提供信用卡号、社保号码、家庭住址、个人病史或其他可识别身份的信息。

在某些版本中,你与公共 AI 聊天机器人的对话,可能会被用于未来模型训练。这可能导致所谓的“训练泄漏”——模型记住某个用户的私人信息,并在后来回应其他用户时泄露出来。此外,任何系统都存在被数据泄露的风险。

因此,我始终把 AI 聊天机器人当成一张公开可见的明信片
如果一条信息不适合写在明信片上,我就不会把它输入到公共 AI 工具里。


二、搞清楚你在哪个“房间”里聊天

你必须清楚自己使用的是公共 AI 工具,还是企业级 AI 系统

企业可以付费使用“企业版模型”,这些模型通常不会使用用户对话进行训练,相对更安全,适合员工讨论工作内容和公司项目。

这就好比:
在嘈杂的咖啡馆聊天,随时可能被旁听;
而在办公室里开会,内容只留在房间内。

曾有员工无意中将公司敏感信息输入 ChatGPT,造成数据外泄。如果你正在参与尚未公开的项目,或涉及专利申请,就绝不应使用非企业级聊天机器人。

我从不在公共聊天机器人中讨论谷歌的项目。哪怕只是修改一封工作邮件,我也只用企业级模型。即便如此,我依然尽量减少分享个人信息。


三、定期删除聊天记录

无论是公共模型还是企业模型,我都建议定期清除聊天记录。即便你认为自己没有输入敏感信息,这也是防止账号被入侵后的重要安全习惯。

有一次,我惊讶地发现,企业版 Gemini 竟能准确说出我的家庭地址,而我并不记得主动提供过。后来才意识到,我曾让它帮忙修改一封包含地址的邮件。由于该工具具备长期记忆功能,它保留了这些信息。

当我搜索一些不希望被“记住”的内容时,会使用类似“无痕模式”的功能。ChatGPT 和 Gemini 都称其为**“临时聊天”**,在该模式下,对话不会被保存,也不会用于训练模型。


四、只使用知名、透明的 AI 工具

我更信任那些知名度高、隐私框架清晰的 AI 工具。

除了谷歌自家的产品外,我也会使用 OpenAI 的 ChatGPT 和 Anthropic 的 Claude。

同时,我建议认真查看每款 AI 工具的隐私政策,了解你的数据是否会用于模型训练。在设置中,通常可以找到“用于改进模型”的选项,务必将其关闭,以避免你的对话被用于训练。


AI 技术极其强大,但如果我们不保持警惕,就可能在不知不觉中泄露自己的身份与隐私。
在拥抱 AI 的同时,保护数据安全,必须成为基本素养。

Leave a Comment

您的邮箱地址不会被公开。 必填项已用 * 标注