Is It Safe to Upload Your Photos to ChatGPT?
用户会假设一定程度的隐私。这可能是一个危险的假设。
2025年9月3日下午5:00 ET
人们越来越多地使用人工智能聊天机器人,不仅用于书面查询,还用于视觉查询——上传照片来识别皮疹、在后院发现植物或编辑 LinkedIn 的头像。
但随着基于图像的人工智能交互变得越来越普遍,隐私专家表示,用户分享的内容可能比他们意识到的还要多。
人工智能公司通常将图像上传定义为临时输入。然而,在交互结束后,这些图像会如何处理,这一点可能更加不明确。由于技术漏洞、人工智能公司政策不一致且不明确,以及未来用途的未知,将图像上传到人工智能存在风险。
数字权利倡导组织电子前沿基金会的高级技术专家雅各布霍夫曼-安德鲁斯表示:“重要的是避免上传那些你希望确保除了你之外没有人看到的照片。”但现实是,太多人工智能用户(就像互联网用户一样)认为他们享有一定程度的隐私,而实际上可能并不存在这种隐私。
比你看到的更多
霍夫曼-安德鲁斯表示,用户应该将人工智能聊天机器人视为另一个存放图片的地方,类似于 iCloud 或 Google Photos,但存在额外的风险。其中最基本的风险就是安全性。与其他地方一样,人工智能聊天机器人也可能遭到黑客攻击,用户账户也可能被盗用。
但事情远不止于此。人工智能公司本身可以访问用户数据和图像。为了评估其人工智能模型的运行情况,人工智能公司会定期审查用户互动样本,包括上传照片的互动。这被称为“人机交互环路”监督。这意味着,即使用户删除了聊天机器人的对话,该聊天记录及其所有视觉元素和其他元素可能已被标记为人工审核。
如果你上传的是花园植物的照片,或者你手臂出现皮疹的特写照片,这看起来可能没什么问题。但问题在于,图片泄露的信息远超用户想要分享的范围。图片中嵌入了元数据,包括照片拍摄地点和时间等详细信息。
与此同时,包含环境背景的高分辨率照片可以捕捉到放在桌子或柜台上的文件或信用卡的清晰视图。照片中还可以包含有关住宅、工作场所或其他人的生物特征识别信息。
斯坦福大学以人为本人工智能研究所的隐私和数据政策研究员詹妮弗金 (Jennifer King ) 表示,如果人工智能公司不从上传的图像中删除元数据,他们最终会获得大量有关你的日常活动、位置和其他事项的数据——公司可能会使用这些信息来改进其人工智能模型。
这意味着,在某些情况下,聊天机器人用户会在不知情的情况下向人工智能公司提供免费的训练数据——如果有选择的话,他们可能不会同意这样做。
政策是什么?
所有这些元数据和其他识别信息都与公司如何处理图像本身的不一致的政策同时存在。
King 对人工智能开发人员进行的研究发现了不同的方法。微软不会使用输入其人工智能助手 Copilot 的图像进行训练。研究表明,Claude AI 模型的制造商Anthropic也是如此。ChatGPT 的创建者OpenAI会使用所有数据进行训练,除非用户选择退出。微软和 OpenAI 的发言人证实了这些做法。Anthropic 的一位发言人表示,公司已更新其政策,要求用户决定是否可以使用他们的数据来训练和改进系统。
King 的研究还发现Meta META 0.26 %增加;绿色向上三角形美国的人工智能用户没有选择退出的选项。Meta Platforms META的一位发言人表示 0.26 %增加;绿色向上三角形不会证实 King 的研究结果,并指出Facebook 上的隐私中心有关于 Meta 如何将信息用于生成 AI 模型和功能的政策。
减少曝光
将图像上传至 AI 之前应采取的实用步骤
查看 AI 平台的数据使用情况和训练默认值
关闭聊天记录
不要上传泄露身份信息(例如地址)的图片
不要上传你不想分享或重复使用的图片
虽然度假照片或菜谱快照可能会混入这些人工智能系统处理的海量数据中,但有些图像被系统记住的风险更高——因此最终会以可识别的形式出现在聊天机器人的结果中。电子前沿基金会的霍夫曼-安德鲁斯指出了两类图像:一类是网络上出现数千次的图像,例如著名的“阿富汗女孩”照片,许多早期的人工智能系统可以完美地复制;另一类是具有高度独特特征的图像,这些特征使其成为统计上的异常值。
霍夫曼-安德鲁斯表示,对于典型的人工智能用户来说,人工智能系统不太可能精确复制他们的个人照片。但人工智能系统并不需要完美的复制品才能构成隐私问题。它可能会生成一张足够接近的图像,以至于可以被识别——包含相同的独特胎记、可见的疾病状况,或一些可能使复制品被他人识别的特征组合。
其他可能被人工智能系统记住的图像包括用于生成动漫人物、人脸变老或制作专业头像的图像。这是因为这些应用程序通常需要清晰、高质量的人脸图像——一张包含生物特征数据的独特图像。
即使对于注重隐私的用户来说,令人困惑的默认设置或不清晰的界面也可能导致图像意外曝光。例如,今年早些时候, Meta 推出其人工智能聊天机器人应用时,用户发现一些对话(包含上传的照片和真实姓名)被发布到公共信息流中,任何使用该应用的用户都可以看到。Meta 的一位发言人表示,这需要多步操作,用户可以随时取消分享聊天记录。
非预期用途
研究人工智能对社会影响的 AI Now 研究所联合主任莎拉迈尔斯韦斯特 (Sarah Myers West)表示,长期风险在于,今天上传的图像最终可能会以与最初目的不符的方式被重新使用。
微软、Anthropic、Meta 和 OpenAI 表示他们不允许第三方分发数据。
韦斯特表示,虽然公司可能不会将数据出售给第三方,但他们通常会保留上传的图像。随着人工智能功能和商业战略的发展,用户无法预测这些图像将被用于何种用途。
她说:“无论你上传什么,它都会在你使用系统之后继续存在。”
本文出处:https://www.wsj.com/tech/ai/chatgpt-photos-safety-83dd9b5b