与拜登政府签字,AI巨头们的八大承诺是什么?

AI 巨头们的承诺,更多的意义或许不在执行上,而是引领 AI 与大型语言模型的发展方向。
(前情提要:区块链与AI结合不是幻想!实现场景有哪些? )
(背景补充:拜登对AI国安危机演讲全文:与科技「七武海」Google、OpenAI、微软..达成承诺 )

本文目录

Meta 刚刚公布新一代开源大型语言模型 Llama 2,之后没几天就和 OpenAI、微软、Google、亚马逊等几家正致力于 AI与大型语言模型的业内巨头一起聚首白宫,而且还共同签订了一份《自愿承诺书》(Voluntary Commitments),就当前热议的 AI技术及其开发的安全、透明、以及风险管控等事宜做出 「八大承诺」。

《纽约时报》第一时间报导了相关新闻,表示《承诺书》更像是过去半年多来美国监管层对这些巨头们数次问询后的一次 「成果展示」,落实到执行层面的可能性不大,更多的意义可能在于监管层表达对 AI 与大型语言模型产业发展的关心,顺便表明政府的立场。 科技巨头求监管,此时的舆论与风头真可说是一时无两 。

1. 企业承诺在释出新系统或大型语言模型前,先对其进行内外两道安全测试

现在没有一家企业会说在公布大型语言模型前没有进行过安全测试,这种测试有时也被叫做 「红队测试」。因此这个承诺并不新鲜,相关概念也很模糊,因为都没有提供有关需要进行何种安全测试或具体负责人的详细资讯。随后白宫又发表宣告称大型语言模型的测试 「将部分由独立专家进行」,并重点关注 「生物安全和网路安全等 AI 风险高发区,及其更广泛的社会影响」。 让 AI巨头企业公开承诺继续进行此类测试并让测试过程更加透明,这的确是一个好想法 。此外一些不易察觉的 AI 风险,例如将 AI或大型语言模型用于开发新武器,国家可能是比企业更好的评估人选。

2. 企业承诺在业内,以及与政府、学界和民间交流有关 AI 与大型语言模型管理风险的资讯

与第一条类似,这条承诺也有些模糊。有的企业的确乐意分享自己 AI或大型语言模型成果的资讯,比如隔三差五的发篇学术论文,或者在自家的官方社交媒体渠道上释出资讯。一些企业如 OpenAI 还发布了专门的文件,官方称其为 「系统卡片」,内容就是他们为使大型语言模型更安全而采取的努力步骤。但凡事无绝对,这些企业有时也会以安全为由而隐瞒资讯。今年三月 GPT-4上线时,OpenAI 就没有透露其引数量级。之前 GPT-3.5 公布的是 1750 亿,因此外界猜测 GPT-4 应该有 100 兆。虽然 OpenAI的 CEO 奥尔特曼在第一时间驳斥这种说法 「完全是胡说八道」,但他也没透露具体的量级究竟有多大。根据这一新的承诺,这些企业是否会被迫公开此类资讯?果真如此是否会加速 AI 与大型语言模型的军备竞赛? 或许白宫更在意的是想要与企业间交换资讯,不论是否会构成威胁,而非一款大型语言模型究竟有多大的引数量级 。

3. 企业承诺在网路安全和内部防护措施上加大投资,以保护专利以及未公布的模型权重

「模型权重」 指的是赋予大型语言模型执行能力的数学指令,保证自身安全没什么难以理解的。如果是竞争对手企业想要构建类 GPT产品那么就必须窃取原版的模型权重,因此这条承诺是符合各家企业既得利益的。之所以有这条承诺是因为这一问题已经到了业内人尽皆知的地步,举个例子,之前 Meta的 LLaMA 在公布几天后就被人将模型权重泄露在 4chan 等网站上。类似的事情过去有,现在有,以后也还会有,小心驶得万年船。

4. 企业承诺允许第三方发现和报告其产品系统中的漏洞

以目前的科技水平来说,完美无缺的产品只存在于理论中,一个大型语言模型新品上线后总是用不了多久就被发现有问题,有的是骇客试图 「越狱」,有的则是粉丝想验证非法功能,但不论哪种都有违企业开发大型语言模型产品的初衷,这种行为甚至也是逾越道德或法律底线的。前一阵 OpenAI启动一项奖励计划,旨在奖励那些发现 ChatGPT 缺陷的使用者。或许白宫也是想延续这一精神,至于未来如何发展还有待观察。

5. 企业承诺开发强大的技术机制,以确保使用者知道哪些内容何时由 AI 生成

这个想法在目前来看的确很有必要,同时也有很大的操作空间。虽然各家企业都在努力设计工具或机制让使用者能区分人工与 AI,但当人把 AIGC冒充为自己的作品时这才是真正的问题。因此也不难理解三月的 GPT-4上线后,最先研究的和最先禁用的都是高校,甚至可能是同一所高校里,教授们在积极研究,却禁止学生们随意使用。

6. 企业承诺公开报告其大型语言模型的功能与局限性,以及可用和不可用领域

与前一条类似,听起来很美好同时操作空间很大。根据过去多少年来科研企业发展的经验,很多产品或功能的最终形态都可能远远超出最初的设想,那么现在大型语言模型时代已经来临了,这种情况可能还会再出现不止一次,又有几家企业真的能坚定不移的恪守承诺呢?

7. 企业承诺优先研究 AI 和大型语言模型可能带来的社会风险,包括避免有害的偏见与歧视,以及保护隐私

这种 「优先考虑」 基本都是模糊承诺,但这一承诺无疑会受到 AI 道德派的欢迎,这一群体最喜欢也最希望的就是这些 AI与科技巨头们将预防偏见和歧视等已经披露出的问题作为优先事项,而不是像 AI 安全派那样担心 AI 或大型语言模型会导致世界末日。 有趣的是两派都认为对方的想法是无稽之谈,而真正研究 AI 和大型语言模型的巨头也有自己的想法 。

8. 企业承诺开发和部署先进的 AI 与大型语言模型系统时,优先考虑帮助解决当前社会面临的问题,如应对气候变化与疾病治疗等

说来难以置信的,在 AI 与大型语言模型的研究中,一些成果的最终样子与其出发点可能相差甚远,比如 OpenAI 用 DOTA2 训练 GPT,期间还将 「强化学习」 的学习模式改为 「基于人类回馈的强化学习」,即现在常说的 RLHF。 AI 与 大型语言模型可能帮助我们解决一 些问题,但同时也可能导致出现新问题,想要真正切实解决还很漫长 。

这八条 「签字画押」 看下来,总体上说还是象征意义大于实质意义,其中几条目前已有企业在采取类似的预防措施,而且也没有什么可行的外部力量来约束他们遵守这些承诺。或许正如前面所说,白宫只是在表明自己的立场与态度,不过这都是合情合理的一步。

📍相关报导📍

AI加上Web3,必定成为牛市热点?先锁定具体趋势和机会

苹果传秘密开发「Apple GPT」!新AI聊天机器人最快明年亮相 力抗OpenAI

DAI狂暴升息》MakerDAO 通过「8%利率」盼激励美元回流Defi

Leave a Reply

Required fields are marked *