ITBear旗下自媒体矩阵:

ChatGPT上传照片:隐私安全知多少?

   时间:2025-09-05 02:56:26 来源:邸钞编辑:快讯团队 IP:北京 发表评论无障碍通道
 

随着人工智能聊天机器人在日常生活中的应用日益广泛,用户们开始频繁地利用这些工具进行视觉查询,如上传皮疹照片、识别后院植物或优化社交平台的个人头像。然而,隐私专家们警告称,用户可能在不自知的情况下分享了过多的个人信息。

尽管许多人工智能公司声称图像上传仅为临时输入,但图像在交互结束后的处理方式却往往不够明确。技术漏洞、政策模糊以及未来用途的不确定性,使得上传图像至人工智能平台成为一项潜在的风险行为。数字权利倡导组织电子前沿基金会的高级技术专家雅各布·霍夫曼-安德鲁斯指出,用户应避免上传不希望被他人看到的照片,但遗憾的是,许多用户仍错误地认为他们的图像隐私得到了保护。

霍夫曼-安德鲁斯进一步强调,用户应将人工智能聊天机器人视为另一个存储图像的地方,类似于iCloud或Google Photos,但伴随着更高的风险。最基本的风险在于安全性,人工智能聊天机器人同样可能遭受黑客攻击,用户账户存在被盗用的可能。人工智能公司本身能够访问用户数据和图像,用于评估其人工智能模型的运行情况,这一过程被称为“人机交互环路”监督。

斯坦福大学以人为本人工智能研究所的隐私和数据政策研究员詹妮弗·金补充道,如果人工智能公司不删除上传图像中的元数据,他们将能够收集到大量关于用户日常活动、位置等敏感信息。这意味着,用户在不知情的情况下,可能向人工智能公司提供了免费的训练数据,而这些数据原本是他们不会同意分享的。

关于公司如何处理图像的政策也存在不一致性。例如,微软不会使用输入其人工智能助手Copilot的图像进行训练,而ChatGPT的创建者OpenAI则默认使用所有数据进行训练,除非用户选择退出。meta的人工智能用户甚至没有选择退出的选项,尽管meta发言人指出,其隐私中心有关于如何使用信息生成AI模型和功能的政策。

为了减少隐私泄露的风险,用户在上传图像至人工智能平台前应采取一系列实用步骤,包括查看平台的数据使用情况和训练默认值、关闭聊天记录、避免上传包含身份信息或不想分享的图片。特别是具有高度独特特征的图像,如包含独特胎记或可见疾病状况的照片,更容易被人工智能系统记住并在未来以可识别的形式出现在结果中。

用于生成动漫人物、人脸变老或制作专业头像的图像也具有较高的被记住风险,因为这些应用通常需要清晰、高质量的人脸图像。令人担忧的是,即使对于注重隐私的用户来说,复杂的默认设置或不清晰的界面也可能导致图像意外曝光。例如,meta在推出其人工智能聊天机器人应用时,用户发现一些包含上传照片和真实姓名的对话被发布到了公共信息流中。

AI Now研究所联合主任莎拉·迈尔斯·韦斯特指出,长期风险在于,今天上传的图像可能会以与最初目的不符的方式被重新使用。尽管微软、Anthropic、meta和OpenAI表示他们不允许第三方分发数据,但用户无法预测这些图像在未来将被用于何种用途。韦斯特强调:“无论你上传什么,它都会在你使用系统之后继续存在。”

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version