我们能信任封闭的人工智能吗?

关键要点

  • “大人工智能”的保密文化可能会导致其落入不法分子手中。
  • AI模型存在被“毒害”的风险,影响生成的结果和决策。
  • OpenAI等公司拒绝向独立研究者提供访问权限,阻碍了可靠的研究和复现。
  • 未来人工智能市场将在2025年达到900亿美元。
  • 监管方面,欧盟已经通过草案监管不安全的AI系统,而美国尚未出台相关立法。

人工智能(AI)行业,尤其是 Microsoft、Google 和 OpenAI等大公司,如果拒绝共享他们的生成式人工智能平台的参数,我们真的能信任他们吗?BaldurBjarnason在最近的一篇博客中提出了这个严重的警告。他指出,“大人工智能”的保密文化让技术的潜在风险变得更加危险,尤其是在社会日益接受生成式人工智能的背景下。

Bjarnason引用了一个重要观点:AI模型可以被“毒害”,“攻击者可以通过注入一些定制化的有毒数据,对整个系统的生成结果产生影响。”这种情况让使用这些技术的公司变得脆弱,面临新形式的“黑帽关键字操纵”。

“我们无法确切得知是否已经有人毒害了 ,而且普通用户无从得知其真相。”Bjarnason 如此表示。他对 OpenAI
的工作方式提出质疑,例如其语言模型和扩散模型的验证方式、训练数据集的筛选和生成响应的优化过程。

Bjarnason 强调,这种保密使得我们无法判断 ChatGPT 是否安全管理,造成信息不对称,这对自由市场构成了致命打击。

关于 ChatGPT 的讨论

评论者 IsmarGPT 提出了担忧:技术精英和公众推崇 AI 的盲目使用可能带来有害影响。另一位用户 Peter 则认为,尽管 ChatGPT备受关注,但怀疑者认为它只是一个缺乏真正智能的概率工具。

行业对生成式 AI的日益关注可通过市场预测来看:根据IDC和彭博社的市场分析,人工智能硬件和服务的市场预计将在2025年达到900亿美元,远高于2020年的360亿美元。

年份 | 市场规模(亿$)
—|—
2020年 | 36
2025年预估 | 90

攻击向量与AI数据毒害

Bjarnason在他的一篇中提到,AI数据毒害是一种对抗性攻击,攻击者通过操纵训练数据集来影响机器学习模型的行为,导致虚假结果的产生。他列举了12种AI模型被毒害的案例,表明这类攻击并不需要对系统内部有特别的了解。

Zimperium 的产品策略副总裁 Krishna Vishnubhotla 表示,虽然攻击者不会在短时间内摧毁
ChatGPT,但他们可以逐步使其变质。这个变化是微妙的,用户可能很难察觉。

打开大门,迎接合作

Vishnubhotla 认为,OpenAI应当考虑允许研究界访问其模型,促进知识共享和合作,防止误信息的传播。他表示,“这样一项强大且不可或缺的技术,应该服务于人类的更大利益,而不是仅仅被私营部门所获利。”

Netenrich 的首席威胁猎人 John Bambenek 认为,目前的 ChatGPT大体上是无害的,但也强调了在更重要的任务中依然需要人类的参与。他表示,缺乏监管和安全保证的情况令人担忧。

“我们现在处于新奇阶段,然而,当这种技术被应用于执法等重要领域时,可能会带来严重的道德和人权问题。”Bambenek补充道。

截至目前,欧盟已经通过了一项草案,严格禁止对个人安全有不可接受风险的 AI系统,而美国则未出台相关的国家立法,但已有多种努力试图在联邦层面应用公平性和安全性原则。

在不断变化的人工智能格局中,信息的透明

Leave a Reply

Your email address will not be published. Required fields are marked *