前沿观察,

AI开拓者指南:从欧盟《人工智能法案》看开源大模型的法律责任

中国 | 中文
所在网站 :    中国   |   中文
澳大利亚
中国香港特别行政区
新加坡
美国
全球

标签:知识产权数字经济人工智能

随着国内外人工智能产业的发展如火如荼,近期关于大模型的开闭源之争掀起一场业内讨论,在IT行业乃至扩展到硬件和通信行业,开源本身作为开放共享的技术手段,尤其是在软件行业内,经过几十年的发展,通过与闭源和服务等模式相结合,已经形成多元且非常成熟的生态氛围和商业模式(详见《开源生态下企业如何搭建属于自己的朋友圈?》一文)。

然而,传统的软件开源商业模式是否对人工智能大模型依然适用——随着大模型的发展和竞争加剧,国内外各大AI厂商早已开始走上开源之路,后继者也在考虑通过“开源”的商业模式来加入内卷的竞争。是否真如行业大佬所述“免费的才是最贵的”,还是如许多AI科学家认为,“长远来看,开源是保障AI安全的唯一办法”?本文暂且不从技术演进或商业成功层面的探究AI开源的可行性,而是以欧盟《人工智能法案》(EU Artificial Intelligence Act)为参考,对开源AI的法律豁免问题进行分析和探究,以期对国内的开源大模型的选择和立法发展提供法律层面的支持。

一、“开源AI”的界定

对于传统的软件行业而言,根据开放源代码促进会(Open Source Initiative,以下简称“OSI”)的定义,开源包含10项标准:(1)可以自由再发行;(2)直接访问源代码;(3)可以修改和二次开发;(4)确保源代码完整性;(5)不歧视任何个人或群体;(6)不歧视任何特定用途;(7)分发许可;(8)许可不得限于某个特定产品;(9)许可不得限制其他软件;(10)许可必须保持技术中立。从该定义来看,开源意味着具体对外的许可也应满足一定的要求。然而,目前实践中部分已开源的AI模型,其对外的许可并非传统软件开源定义中的许可要求——如Meta公司开源的Llama 2模型,其虽然具备一定的开源因素,如自由再分发、直接访问源代码、可修改和二次开发等,但其在许可协议的第2条中规定了月活量超7亿的用户必须获得Meta公司的单独授权,该规定并不符合开源要素中的第(5)条不歧视任何个人或群体;在第1条第2款第5项中规定了不得使用Llama模型去提高其他语言模型的限制,与传统开源要素中第(9)条不限制其他软件的要求相冲突。显然,Llama2的许可协议并非典型的开源许可协议,但Meta公司已经算是在同行中大模型开源走得比较靠前的模型厂商。

由此可见,AI的开源和传统软件的开源在界定时可能难以采用同一标准。与开源软件仅仅指“免费且公开可下载的源代码“的概念不同,AI系统由多种组成部分构成,具体包括推理代码、训练代码、模型权重和训练数据,其中开源软件的“源代码”概念具体可以指推理代码和/或训练代码,该两者可以独立共享。对AI系统而言,其从“100%完全开放”到“100%完全封闭”的开放选项实际上是可以划分多个维度的,目前实践中AI系统根据开放程度的不同可以划分为7个不同的级别(具体如下图所示):

斯坦福大学基础模型研究中心基于Solaiman教授的分类修改后的AI系统访问等级[1]

(1)完全开放意味着代码(包括推理代码、训练代码,下同)、模型权重和训练数据均对外开放且无使用限制,具体例如EleutherAI的GPT-NeoX模型;

(2)代码、模型权重和训练数据均对外开放但有使用限制,具体如BigScience的BLOOM模型;

(3)仅模型权重对外开放,如Stability AI的Stable Diffusion模型以及Meta的Llama 2模型;

(4)通过API开放且可以微调的模型,具体如OpenAI的GPT-3.5模型;

(5)通过API开放但不可以微调的模型,具体如OpenAI的GPT-4模型;

(6)通过网站页面访问的模型,具体如Inflection AI的Pi模型;

(7)除开发人员之外,外部所有人员均不得获取的模型,具体如Google DeepMind的Flamingo模型。

AI系统组成部分以及开放方式的多样性意味着开源AI的界定本身具有天然的复杂性。

值得注意的是,OSI自2022年以来就启动了一项深入的全球倡议,让主要参与者(包括企业、学术界、法律界以及代表更广泛民间社会的组织和非营利组织)参与进来,共同起草开源AI的定义,从目前发布的第v.0.0.9版本的定义来看,开源AI需要授予以下四种自由:(1)可出于任何目使用系统,而无需征求许可;(2)研究系统的工作原理并检查其组件;(3)可出于任何目的修改系统,包括更改其输出;(4)可出于任何目的共享系统供他人使用,无论系统是否经过修改。目前OSI对开源AI的定义尚在讨论之中,无论该定义是否可能被各国立法所普遍接受,目前能够达共识的是,AI大模型的开源和传统软件开源难以采用同一标准,无论是鼓励技术发展还是实践可行性角度,各方对于AI开源的定义可能会给予更高的灵活性。

二、欧盟《人工智能法案》对开源AI的法律责任豁免

在AI相关众多话题之中,AI风险及法律责任的承担是重要议题之一。尽管针对AI风险及不同类型AI法律责任的承担问题目前尚无结论,且未来可能因技术的发展导致的AI类型的变化而不断衍生新的问题,但就目前而言,各国的监管者都对开源AI持更为包容的态度,主要原因在于一方面AI开源意味着开发者将披露AI的权重、参数、架构等详细信息,AI信息的公开能够有效促进人工智能技术的发展;另一方面AI开源意味着开发者将在GitHub、hugging face等开源社区上传AI组件,这使得利用开源社区集体的力量审查技术、发现漏洞、修复AI缺陷成为可能。

在立法层面,欧盟的《人工智能法案》是最早对开源AI表明支持态度的立法之一。2024年5月21日欧盟理事会正式批准的《人工智能法案》第2条第12项明确,除部分例外情形,该法案对免费开源的AI系统不适用,即《人工智能法案》中的部分限制对开源AI将不适用。

大部分对欧盟人工智能立法有所了解的读者都应该知道,《人工智能法案》采用了基于风险的方法(risk-based approach)对人工智能系统(“AI系统”)进行分类,在该方法下,AI系统被分为四类,分别是:不可接受风险类、高风险类、有限风险类和最小风险类,其中分别对不可接受风险类、高风险类、有限风险类这前三类AI系统根据其可能产生威胁的严重性进一步界定和分类;其他为最小风险类AI系统,具体如人工智能电子游戏或垃圾邮件过滤器等。《人工智能法案》针对不同类别的AI系统适用不同程度的监管要求。

AI系统风险等级划分[2]

根据欧盟《人工智能法案》,在开源AI法律豁免方面,根据AI系统类型的不同,以及是否为通用人工智能模型,其豁免程度和要求不同。

(一)开源AI法律豁免的具体规定

欧盟《人工智能法案》第2条明确了该法案的适用范围,在该条的第12项明确,本法案规定的义务不适用于根据免费且开源许可发布的AI系统,除非这些系统作为高风险人工智能系统或者属于第5条和第50条的人工智能系统投放市场或提供服务。即除了部分如高风险人工智能系统等例外情形(该些例外情形的具体要求将在下文做进一步讨论),对其他免费且开源发布的AI系统,将无需遵循欧盟《人工智能法案》规定的义务。

该条开源AI欧盟《人工智能法案》适用的例外规定基于两个前提:(1)AI系统需免费发布,根据欧盟《人工智能法案》背景陈述部分的第103项,有偿提供或以其他方式商业化的AI系统,包括通过开源模式提供与AI系统有关的有偿技术支持或其他服务,或使用定向广告来支付成本等,不符合免费发布AI系统的前提,欧盟《人工智能法案》中关于开源AI的例外规定对非免费发布的AI系统不适用。(2)AI系统需开源,根据欧盟《人工智能法案》背景陈述部分的第102项,如果在注明模型的原始提供者以及遵循相同或类似的分发条款的前提下,允许用户运行、复制、分发、研究、更改和改进软件和数据,包括模型,则该许可应被视为免费且开源的。从该项规定来看,欧盟《人工智能法案》对开源的界定门槛相对较低,仅要求向用户授予对软件和数据的广泛使用权,并对注明模型的原始提供者的署名以及分发条款应相同或类似进行了强调。

(二)开源AI法律豁免的例外情形

如前所述,在开源AI法律豁免方面,欧盟《人工智能法案》根据AI系统类型的不同,以及是否为通用人工智能模型,其豁免程度和要求不同。欧盟《人工智能法案》第2条第12项明确开源AI豁免适用欧盟《人工智能法案》的例外包括:(a)高风险AI系统;(b)属于第5条所述的AI系统;以及(c)属于第50条所述的AI系统。此外,在与通用人工智能模型相关的规定中,明确了部分豁免的情形。

1. 高风险AI系统的例外

根据欧盟《人工智能法案》第6条,高风险AI系统包括两类:一类是AI系统作为安全部件的产品或AI系统本身作为产品,根据《人工智能法案》附件一所示的19项欧盟统一立法,具体如欧洲议会和理事会2009年6月18日关于玩具安全的2009/48/EC号指令,在产品投入市场或者提供服务前,必须接受第三方合格性评估的产品;另一类是《人工智能法案》在附件三中明确指定为高风险AI系统的8个领域的AI系统,包括:用于未被禁止的生物识别、管理关键基础设施、教育和职业培训、就业、员工管理和自雇职业、获得和享受基本私人服务以及基本公共服务和福利、执法、移民、庇护和边境管制管理、司法和民主进程领域的AI系统。其中第二类高风险AI系统的认定并非绝对,除对自然人进行画像的AI系统之外,如果其他AI系统虽然落入《人工智能法案》附件三明确列举的8类AI系统的范围,但如果该AI系统对自然人的健康、安全或基本权利不构成重大损害风险,包括不对决策结果产生重大影响,则不应被视为高风险系统。高风险AI系统即便开源,欧盟《人工智能法案》关于高风险AI系统的规定,如透明度、数据质量、记录保存、人工监督和稳健性等具体要求对其仍然适用,如未遵循该些要求,开源方将需要承担相应的法律责任。

2. 不可接受风险类AI系统的例外

《人工智能法案》第5条所述的AI系统具体指的是不可接受风险类AI系统。《人工智能法案》第5条明确列举了8类不可接受风险类AI系统,包括:(a)使用潜意识的、操纵性的、或欺骗性的手段来扭曲人的行为,从而导致该人做出其本来不会做出的决定,造成或可能对人造成重大伤害;(b)利用与年龄、残疾或特定社会经济状况有关的弱点来扭曲人的行为,造成或可能对人造成重大伤害;(c)根据人的社会行为或已知、推断或预测的个人或个性特征,在一定时期内对人进行评估或分类;(d)基于人的画像或其个性特征和特点,评估或预测人实施刑事犯罪的风险;(e)通过无区别地从互联网或闭路电视录像中抓取面部图像来创建或拓展面部识别数据库;(f)在工作场所或教育机构进行情绪识别;(g)推断人的种族、政治观点、工会成员身份、宗教或哲学信仰、性生活或性取向的生物分类系统;(h)进行“实时”远程生物识别的系统。如构成前述8类不可接受风险类AI系统,且不属于欧盟《人工智能法案》第5条规定的各类AI系统的例外情形,则该AI系统绝对禁止,无论其是否开源。

3. 通用人工智能模型的例外

欧盟《人工智能法案》针对通用AI模型的开源法律豁免设置了多项例外,具体包括:(a)如果通用人工智能模型存在系统风险,则即便其进行了开源,欧盟《人工智能法案》对其仍继续适用。判断通用AI模型是否具有系统风险的取决于设置的每秒执行的浮点运算次数(FLOPs),FLOPs将随着时间的推移而调整,以反映算法的改进或硬件效率的提高等技术和产业的变化。就目前而言,如果通用人工智能模型用于训练的累积计算量大于10的25次方每秒浮点运算次数,就可能会被认定为有系统性风险;(b)对其他不存在系统风险的通用人工智能模型,其仍需遵循欧盟《人工智能法案》第53条第1款第(c)项和第(d)项规定的应制定一项尊重欧盟版权法的政策,以及根据人工智能办公室提供的模板,就通用人工智能模型培训所使用的内容起草并公布一份足够详细的摘要的要求。

4. 特定类型AI系统的例外

根据欧盟《人工智能法案》第2条第12项,即便是开源AI,也应遵循该法案第50条透明度义务的要求。前述要求主要与直接和人进行互动的AI系统的规制有关,其主要要求:(a)AI提供者应确保意图与自然人直接互动的AI系统的设计和开发方式应使有关自然人知道他们正在与一个AI系统互动;(b)生成合成音频、图像、视频或文本内容的AI系统,应确保对AI系统的输出内容标注为智能生成或操纵;(c)《人工智能法案》允许的情感识别系统或生物识别分类系统应向接触该系统的自然人告知该系统的运行情况。

三、我国关于开源AI法律豁免的规定

我们也注意到,国内在开源有一些有益的探索。2024年4月16日,在由中国社会科学院法学研究所、中国互联网协会互联网法治工作委员会主办,南财合规科技研究院、清华大学科技发展与治理研究中心、同济大学上海市人工智能社会治理协同创新中心等承办的“人工智能治理创新论坛”上,《人工智能法示范法2.0(专家建议稿)》(“《示范法》2.0”)发布,相较于1.0版本,《示范法》2.0在第71条规定,以免费且开源的方式提供人工智能研发所需的部分代码模块,同时以清晰的方式公开说明其功能及安全风险的,不承担法律责任。免费且开源提供人工智能的个人、组织能够证明已经建立符合国家标准的人工智能合规治理体系,并采取相应安全治理措施的,可以减轻或免于承担法律责任。《示范法》2.0系我国第一部提及开源AI法律豁免的法律文件,其虽然仅是专家建议稿,目前尚未正式发布,但从已有文本来看,相较于欧盟《人工智能法案》而言,《示范法》2.0既未区分AI的不同的类型并分别确定开源豁免的规则,亦未明确开源AI的定义,尚有较大的进步空间。

AI开源对AI技术的创新和发展而言至关重要,基于此,各国对AI开源普遍持支持态度,并希望通过开源AI法律豁免的规定促进本国/地区AI技术的发展。然而AI开源意味着开源的AI技术将可能被公众广泛使用,带来新技术发展的同时会带来新的安全问题。如何在促进技术发展和AI安全之间取得平衡是各国制定开源AI相关规则需要考虑的重要议题。对企业而言,是否将本企业的AI技术开源虽然更多是商业层面的考量,但在相关国家明确开源AI法律豁免规则的前提下,将为企业AI技术的开源扫清法律障碍。对开源AI适用较轻或免除法律义务是目前各国AI立法的大趋势,但这并不意味着企业开源AI将不受任何限制,开源AI仍需遵循如告知功能和安全、遵守版权规定等要求。

扫码订阅“金杜律师事务所”,了解更多业务资讯

EU AI ACT:How risk is classified, https://www.trail-ml.com/blog/eu-ai-act-how-risk-is-classified.

参考资料

最新文章
前沿观察
在当前全球经济格局深度调整与科技迅猛发展的时代背景下,低空经济作为战略性新兴产业,正以前所未有的速度蓬勃兴起,释放出巨大的发展潜力与活力。从城市空中交通的构想逐步落实,到物流配送领域无人机的广泛应用,再到低空旅游等新兴业态的不断涌现,低空经济正深度融入人们的生产生活,重塑经济发展模式。 新兴产业的兴起,往往伴随着各种法律问题的出现,虽然监管已就低空经济领域在不断地调整与完善相关法律法规,但仍存在着诸多复杂或/且隐蔽的法律问题尚待解决,尤其是在低空基础设施领域。这些问题不仅关系到企业的投资回报与开发安全,还对低空经济产业的整体发展和公共安全有着深远影响。如果不能对这些问题进行有效识别、评估和防控,可能会导致项目延误、成本增加或产生责任纠纷等不利后果,甚至还可能威胁到人民群众的生命财产安全,阻碍低空经济产业的健康发展。公司与并购,汽车、制造业及工业-汽车与出行

2025/03/12

前沿观察
近年来,在“走出去”政策、“一带一路”倡议引领下,中国企业积极出海投资,投资规模持续攀升。然而,全球化布局和投资架构涉及多处司法管辖区,也使得出海企业直面国际政治、经济、外交、法律、行业、管控、运营、债务、纠纷等各类复杂风险与挑战。 国际化投资运营的中国企业,无论是在战略布局时选择目的地、或是自身经营已经陷入困境、或是面临供应商、下游客户或合作伙伴进入或即将陷入困境,均有必要对各主要投融资和运营所在司法管辖区的债务重组和破产、国际跨境破产合作模式和救济制度有一定了解,以从风险防控角度前瞻性规划布局,及时识别和隔离风险,合理选择境内外应对方式,从而较大限度保护海外权益和资产安全,缓释风险,减少损失,提升全球化经营能力和国际竞争力。 继新加坡之债务重组制度概览(上)及(下)对一带一路出海目的地之一、总部经济模式为主的新加坡的债务重组制度进行概要介绍后,本文将概要介绍我国香港特别行政区债务重组与破产制度相关的司法体系、法律发展及庭外重组。一带一路国际法律业务-国际投融资与工程,债务重组

2025/03/12

前沿观察
乙巳新春,中国的推理大模型DeepSeek R1火爆全球。作为一款在推理能力上媲美OpenAI的o1且收费标准远低于o1的国产大模型,DeepSeek一时间在国内刮起一股扑面而来的全民AI风潮,并不令人意外,但这款来自大厂体系外创业团队的开源大模型,经由数位外国商界领袖与技术大佬口碑相传并最终形成在外国新闻媒体上“刷屏”的效果,则是非常耐人寻味了。 在笔者看来,DeepSeek火爆全球不仅仅是因为其在技术成熟度以及商业成本方面表现杰出,更重要的是DeepSeek是开源界一颗无比闪亮的新星,而美国1月份新出台的AI扩散框架新规,就像为DeepSeek闪亮登场打call一样。 通过分析为何DeepSeek的开源策略具有如此之大的“杀伤力”,我们可以看到中国企业必须要特别重视开源创新范式,避免简单地一提到“开源”就等同于“开源软件”,而是要以专业的战略性法律思维,探索开源创新范式在当前环境下对国内企业可能带来的战略价值。知识产权-知识产权交易,数字经济,人工智能

2025/03/11