当今人工智能面临的三大数据隐私问题

HodlX 访客帖子 提交您的帖子

AI(人工智能)在消费者和企业中引起了疯狂的兴奋——他们坚信 LLM(大型语言模型)和 ChatGPT 等工具将改变我们的学习、工作和生活方式。

但就像互联网的早期一样,用户在没有考虑他们的个人数据如何使用以及这可能对他们的隐私产生的影响的情况下就加入了。

人工智能领域已经有无数数据泄露的例子。 2023 年 3 月,OpenAI 暂时使 ChatGPT 下线,因为发生“重大”错误意味着用户能够看到陌生人的对话历史记录。

同样的错误意味着订阅者的支付信息——包括姓名、电子邮件地址和部分信用卡号码——也属于公共领域。

2023 年 9 月,一名员工无意中泄露了高达 38 TB 的 Microsoft 数据,网络安全专家警告称,这可能会让攻击者利用恶意代码渗透到 AI 模型中。

研究人员还能够操纵人工智能系统来泄露机密记录。

在短短几个小时内,一个名为 Robust Intelligence 的组织就能够从 Nvidia 软件中获取个人身份信息,并绕过旨在阻止系统讨论某些主题的安全措施。

我们从所有这些场景中吸取了教训,但每次违规都有力地说明了人工智能要成为我们生活中可靠且值得信赖的力量需要克服的挑战。

谷歌的聊天机器人 Gemini 甚至承认所有对话都是由人类审核员处理的,这凸显了其系统缺乏透明度。

“不要输入任何您不想被审查或使用的内容,”向用户发出的警告警告说。

人工智能正在迅速超越学生做作业或游客在罗马旅行期间依赖的推荐工具。

它越来越多地被依赖于敏感讨论,并满足从医疗问题到我们工作日程的一切需求。

因此,有必要退一步思考当今人工智能面临的三大数据隐私问题,以及为什么它们对我们所有人都很重要。

1. 提示不是私密的

ChatGPT 等工具会记住过去的对话,以便以后查阅。 虽然这可以改善用户体验并帮助培训法学硕士,但它也伴随着风险。

如果系统被成功入侵,则存在在公共论坛中暴露提示的真正危险。

当人工智能用于工作目的时,用户历史记录中潜在的令人尴尬的细节以及商业敏感信息都可能被泄露。

正如我们从谷歌看到的,所有提交的内容最终都会受到其开发团队的审查。

三星于 2023 年 5 月对此采取了行动,完全禁止员工使用生成式人工智能工具。 这是在一名员工将机密源代码上传到 ChatGPT 后发生的。

这家科技巨头担心这些信息很难检索和删除,这意味着 IP(知识产权)最终可能会被分发给广大公众。

苹果、Verizon 和摩根大通也采取了类似的行动,有报道称,在 ChatGPT 的回复与其内部数据相似后,亚马逊发起了打击行动。

正如您所看到的,人们的担忧不仅限于数据泄露时会发生什么,还包括输入人工智能系统的信息可能被重新利用并分发给更广泛的受众的前景。

OpenAI 等公司已经面临多起诉讼,指控其聊天机器人使用受版权保护的材料进行训练。

2. 组织训练的定制人工智能模型不是私有的

这让我们明白了下一点——虽然个人和公司可以根据自己的数据源建立自己的定制 LLM 模型,但如果它们存在于 ChatGPT 这样的平台范围内,它们就不会完全私有。

最终无法知道输入是否用于训练这些庞大的系统,或者个人信息最终是否会在未来的模型中使用。

就像拼图一样,来自多个来源的数据点可以汇集在一起​​,形成对某​​人身份和背景的全面且详细得令人担忧的洞察。

主要平台也可能无法提供有关如何存储和处理这些数据的详细解释,并且无法选择退出用户不舒服的功能。

除了响应用户的提示之外,人工智能系统越来越有能力解读字里行间的含义,并推断出从一个人的位置到他的个性等一切信息。

如果发生数据泄露,可能会造成可怕的后果。 可以精心策划极其复杂的网络钓鱼攻击,并将用户秘密输入人工智能系统的信息作为目标。

其他潜在的场景包括这些数据被用来假设某人的身份,无论是通过开设银行账户的应用程序还是深度伪造视频。

即使消费者自己不使用人工智能,也需要保持警惕。 人工智能越来越多地被用于为监控系统提供动力并增强公共场所的面部识别技术。

如果此类基础设施不是在真正的私人环境中建立的,那么无数公民的公民自由和隐私可能会在他们不知情的情况下受到侵犯。

3. 私有数据用于训练AI系统

有人担心,主要的人工智能系统是通过仔细研究无数网页来收集情报的。

据估计,训练 ChatGPT 使用了 3000 亿个单词(即 570 GB 的数据),数据中心化包含书籍和维基百科条目。

众所周知,算法依赖于社交媒体页面和在线评测。

通过其中一些来源,您可以认为这些信息的所有者对隐私有合理的期望。

但事情是这样的——我们每天互动的许多工具和应用程序已经受到人工智能的严重影响——并对我们的行为做出反应。

iPhone 上的 Face ID 使用人工智能来跟踪您外表的细微变化。

TikTok 和 Facebook 的人工智能算法会根据您过去观看过的剪辑和帖子进行内容推荐。

Alexa 和 Siri 等语音助手也严重依赖机器学习。

人工智能初创公司数量令人眼花缭乱,每家都有特定的目的。 然而,有些公司在如何收集、存储和应用用户数据方面比其他公司更加透明。

这一点尤其重要,因为人工智能对医疗保健领域产生了影响——从医学成像和诊​​断到记录保存和制药。

近年来陷入隐私丑闻的互联网企业需要吸取教训。

女性健康应用程序 Flo 在 2010 年代被监管机构指控向 Facebook 和 Google 等公司分享用户的私密信息。

我们接下来要去哪里

人工智能将在未来几年对我们所有人的生活产生不可磨灭的影响。 法学硕士日新月异,新的用例不断出现。

然而,随着该行业飞速发展,监管机构将面临着难以跟上的真正风险。

这意味着消费者需要开始保护自己的数据并监控其使用方式。

去中心化可以在这里发挥至关重要的作用,防止大量数据落入主要平台手中。

DePIN(去中心化物理基础设施网络)有潜力确保日常用户体验人工智能的全部好处,而不会损害他们的隐私。

加密货币提示不仅可以提供更加个性化的结果,而且保护隐私的法学硕士将确保用户始终完全控制自己的数据,并防止数据被滥用。

Chris Were 是 Verida 的首席执行官,Verida 是一个去中心化、自主主权的数据网络,使个人能够控制自己的数字身份和个人数据。 Chris 是一位澳大利亚科技企业家,20 多年来一直致力于开发创新软件解决方案。

《当今人工智能面临的三大数据隐私问题》一文首先出现在 The Daily Hodl 上。

资讯来源:由0x资讯编译自DAILYHODL。版权归作者Chris Were所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢