维护人工智能安全的战斗

Buy Database Forum Highlights Big Data’s Global Impact
Post Reply
rumiseoexpate1
Posts: 864
Joined: Tue Jan 07, 2025 4:02 am

维护人工智能安全的战斗

Post by rumiseoexpate1 »

人工智能可能正在蓬勃发展,但我们是否应该采取措施,保​​护我们的个人信息免受机器崛起的影响?

生成式人工智能与隐私挑战
隐私是生成式人工智能发展过程中出现的关键问题之一。如果 GenAI 程序及其支持 LLM 未使用正确的隐私算法进行训练,则它们可能面临多种隐私风险和安全威胁。

生成式人工智能的工作原理是为用户创建或“生成”全新的数据。因此,它生成的数据必须不包含可能对个人构成风险的敏感信息。

由于许多 GenAI 模型都是使用从许多来源获 阿联酋电话号码列表 得的大量大数据进行训练的,这些数据可能包含在线个人信息,因此,如果 AI 不能遵守其编程的隐私政策,风险可能立即出现。

用户已经意识到生成式 AI 聊天机器人中存在的缺陷,并学习可能导致 LLM 忘记编程的提示。最近的例子是,一位 X 开发人员提示汽车经销商聊天机器人以 1 美元的价格出售一辆 2024 款雪佛兰 Tahoe,这凸显了该技术仍然存在的严重漏洞。

此外,黑客通过数据泄露攻击从聊天机器人中窃取训练数据,这可能会给网络犯罪分子留下大量包含个人隐私信息的大数据。


幸运的是,企业和监管机构都意识到了生成式人工智能可能给用户带来的隐私漏洞。禁止或控制对 GenAI 模型的访问、优先考虑合成数据以及运营私人 LLM 等提议已经变得很常见。

鉴于我们在整个生成人工智能领域所见证的指数级增长,唯一的解决方案就是发现与人工智能共存的新方法并减轻其安全威胁。

在企业层面,Google、Microsoft、AWS 和 Snowflake 等提供商最常见的方法是在组织基础设施上私下运行 LLM。

我们可以通过 Snowflake 的 Snowpark Model Registry 看到这一点,它允许用户使用 Snowflake 帐户在容器服务中运行开源 LLM,帮助模型使用专有数据运行。

Meta很快确认,其 Llama 2 LLM 的训练并未使用 Meta 用户数据。

元图像

在公众对 Facebook 的隐私承诺越来越不信任的背景下,此举有助于平息人们对使用 Facebook 用户信息的担忧。

如何保护私人数据免受人工智能的侵害
尽管采取措施控制生成式人工智能的力量,但开发最高效法学硕士的竞赛可能会导致新模型的匆忙推出,或者通过发布训练不足的程序来削减成本。
Post Reply