立法者选择的术语来规范当前生成式人工智能工具繁荣背后最强大的模型——欧盟法案将其称为“通用”人工智能模型和系统,而不是使用行业选择的术语,例如“基础”或“根据委员会的说法,选择“前沿”模型还考虑到了即将出台的法律的未来发展,联合立法者倾向于使用通用术语,以避免可能与特定技术(即基于变压器的机器学习)的使用挂钩的分类。

“未来我们可能会有不同的技术方法。因此,我们正在寻找一个更通用的术语,”一位委员会官员今日建议道。“当然,基础模型是通用人工智能模型的一部分。这些模型可用于各种各样的任务,也可以集成到系统中。举个具体的例子,通用人工智能模型是 GPT-4,通用人工智能系统是 ChatGPT——其中 GPT-4 集成在 ChatGPT 中。”

正如我们之前报道的,欧盟共同立法者同意的协议包括低风险层和高风险层,用于监管所谓的通用人工智能(GPAI)——例如 OpenAI 的 ChatGPT 等生成式人工智能工具病毒式繁荣背后的模型。适用于生成人工智能技术的高风险规则的触发因素是由法律规定的初始阈值决定的。另外,正如我们周四报道的那样,欧盟人工智能法案商定的草案提到了用于训练模型的计算量,即浮点运算(或 FLOP)——为 GPAI 被认为具有“高影响能力”设定了标准10^25 次浮点运算。

但在今日与记者举行的审查政治协议的技术简报会上,委员会确认这只是一个“初始门槛”,并确认它将有权通过实施/授权行为(即二级立法)随着时间的推移更新门槛。它还表示,这个想法是随着时间的推移,将 FLOPs 阈值与“其他基准”相结合,这些基准将由委员会内设立的一个新的专家监督机构(称为人工智能办公室)制定。

为什么选择 25 FLOP 作为 GPAI 的高风险阈值?委员会表示,选择该数字的目的是为了捕捉当前的发电前沿模型。然而,它声称立法者没有讨论,甚至没有考虑它是否适用于当前正在使用的任何模型,例如 OpenAI 的 GPT-4 或谷歌的 Gemini,在马拉松三场比赛中就规则手册的最终形式达成一致。

一位委员会官员补充说,无论如何,GPAI 的制造商都应该自行评估他们的模型是否符合 FLOP 阈值,从而判断它们是否属于“具有系统性风险”的 GPAI 规则。

“没有任何官方消息称 ChatGPT 或 Gemini 或中国模型处于这种失败水平,”该官员在新闻发布会上表示。“根据我们所掌握的信息以及我们选择的 10^25,我们选择了一个能够真正捕获我们所拥有的前沿模型的数字。无论这是捕获 GPT-4 还是 Gemini 还是其他,我们现在不在这里断言 - 因为在我们的框架中,公司必须来自我评估他们使用的 FLOP 数量或计算能力。但是,当然,如果您阅读科学文献,许多人会指出这些数字是目前情况最先进的模型。我们将看看这些公司将评估什么,因为他们最适合进行评估。”

他们补充说:“制定这些规则时并没有考虑到某些公司。”“它们实际上是为了定义阈值的想法而写的——顺便说一句,它可能会改变,因为我们有可能被授权在技术进化的基础上改变这个阈值。它可能会上升,也可能会下降,我们还可以制定其他基准,这些基准在未来将更适合衡量不同时刻的基准。”

属于《人工智能法案》高风险层的 GPAI 将面临事前式的监管要求,以评估和减轻系统性风险——这意味着它们必须主动测试模型输出,以缩小对公共健康的实际(或“合理可预见”)负面影响的风险,安全、公共安全、基本权利或整个社会。

而“低层”GPAI 将仅面临较轻的透明度要求,包括对生成式 AI 输出应用水印的义务。

GPAI 的水印要求包含在基于风险的框架的原始委员会版本中的一篇文章中,该文章早在 2021 年 4 月就已提出,该文章重点关注人工智能聊天机器人和 Deepfakes 等技术的透明度要求 - 但现在将也普遍适用于通用人工智能系统。

“有义务尝试根据现有的最新技术对[人工智能生成的]文本添加水印,”该委员会官员表示,并详细说明了商定的水印义务的细节。“目前情况,视频和音频水印技术比文本水印技术要好得多。但我们要求的是,这种水印是在最先进的技术的基础上进行的——当然,我们期望随着时间的推移,这项技术将会成熟,并且会尽可能[好]。”

GPAI 模型制作者还必须承诺尊重欧盟版权规则,包括遵守欧盟版权指令中现有的机器可读退出文本和数据挖掘的规定,并且该法案对开源 GPAI 的透明度要求的剔除并不意味着委员会确认版权指令仍适用于开源 GPAI,从而免除他们的版权义务。

至于人工智能办公室,该办公室将在设定 GPAI 风险分类阈值方面发挥关键作用,委员会确认,目前情况尚未为该专家机构确定预算或人员数量。(不过,在周六凌晨,欧盟内部市场专员蒂埃里·布雷顿(Thierry Breton)表示,欧盟将欢迎“非常多”新同事,因为它正在组建这个通用人工智能监督机构。)

当被问及人工智能办公室的资源时,一位欧盟委员会官员表示,未来将由欧盟行政部门做出“适当的官方决定”来决定。“我们的想法是,我们可以为该办公室设立一个专门的预算项目,如果我们希望在合同代理和长期工作人员之上,我们还可以从会员国招募国家专家。其中一些工作人员也将部署在欧盟委员会内,”他们补充道。

人工智能办公室将与该法律还将设立的一个新的科学咨询小组合作,以帮助该机构更好地了解先进人工智能模型的能力,以达到监管系统性风险的目的。这位官员指出:“我们已经确定了成立科学小组的重要作用,科学小组可以有效帮助人工智能办公室了解是否存在尚未发现的新风险。”“例如,还标记一些关于 FLOP 阈值未捕获的模型的警报,由于某些原因,这些模型实际上可能会引起政府应该关注的重要风险。”

尽管尚未有最终文本,但欧盟执行官似乎热衷于确保即将出台的法律的关键细节得以公布,因为要努力巩固联合立法者在周五晚上结束的马拉松式 38 小时会谈中达成的共识。这是欧盟未来几周面临的下一个任务——这个细节中可能仍然潜伏着一些魔鬼。因此,值得仔细审查可能在一月或二月出现的文本。

另外,虽然全面的监管在几年内不会启动并运行,但欧盟将同时推动 GPAI 遵守实践准则——因此人工智能巨头将面临压力,必须遵守即将出台的硬性监管规定通过欧盟的《人工智能公约》,尽可能地实现这一目标。

欧盟人工智能法案本身可能要到 2026 年的某个时候才会完全生效——因为最终文本一旦编译(并翻译成成员国语言)后必须得到议会和理事会的最终投票确认,之后该法律文本在欧盟官方公报上发布之前还有很短的一段时间,而在其生效之前还有一段时间。

欧盟立法者还同意采取分阶段的方法来满足该法案的合规要求,在高风险规则适用于 GPAI 之前有 24 个月的时间。

严格禁止的人工智能用例清单将在法律生效后六个月更早适用——这可能意味着禁止某些“不可接受的风险”人工智能用途,例如社交评分或 Clearview AI 风格面部识别数据库的自拍抓取将于 2024 年下半年启动并运行,前提是理事会或议会内部不会在最后一刻出现对该法规的反对。原文链接;https://techcrunch.com/2023/12/11/eu-ai-act-gpai-rules-evolve/

发表评论