在2024年3月13日欧盟议会以压倒性票数通过《人工智能法案》(the Artificial Intelligence Act1)之后,该法案进入了生效之前的最后阶段。由于《人工智能法案》是一项法规(“Regulation”),而不是指令(“Directive”),因此,与《通用数据保护条例》(GDPR)一样,其将在规定日期在欧盟所有27个国家生效,在整个欧盟范围内具有法律效力。
《人工智能法案》作为全球首部针对人工智能的全面规则,确定了人工智能系统的概念,基于风险级别为人工智能产业链上的不同主体确定了不同的合规要求,并且对通用人工智能模型的概念和需要履行的义务进行了单独规定。本文将从以下几个方面对《人工智能法案》进行梳理,同时讨论中国企业可能受到的影响和风险。
PART 01 《人工智能法案》的立法目的和人工智能系统的定义
《人工智能法案》的条款共分13章,共计113条,其中第一条指出了立法目的及其包含的七方面内容。《人工智能法案》旨在改善内部市场的运作,促进以人为本和值得信赖的人工智能的应用,同时确保对健康、安全和《欧盟基本权利宪章》中规定的基本权利,包括民主、法治和环境保护的高度保护,使其免受欧盟内人工智能系统的有害影响,并支持创新。
该法案的第三条给出了对人工智能系统的定义,即“人工智能系统”指的是一种基于机器的系统,旨在以不同程度自主性运行,可以在部署后表现出适应性,并且基于明确的或隐含的目标,根据其接收到的输入,推断如何生成可能影响物理或虚拟环境的输出,诸如预测、内容、建议或决策等。该定义基于2023年11月经合组织(OECD)所通过的新的人工智能的定义。
上述定义中的主要关键字包括“自主性”、“适应性”和“推断”,通过这样的定义来区别于其他软件。上述定义没有限定输出的内容,也没有限制进行“推断”的技术,其强调的是行动上一定程度独立于人类的参与,具有自主学习的能力和推理能力的特征。
根据以上定义,渗透到日常生活的自动驾驶系统、导航系统、无人机、各种智能设备、金融系统信用计算、聊天机器人、垃圾邮件清理软件、模式识别系统(如人脸识别、指纹识别等)、各种推荐系统、智能翻译软件、检索软件、电子游戏等等都属于人工智能系统的范围。
PART 02 《人工智能法案》的适用对象和不适用情形
《人工智能法案》撒下了一张广泛的网,其涵盖了在欧盟市场内提供人工智能服务的所有实体。这不仅包括欧盟境内的人工智能开发商和提供商,还包括欧盟以外的人工智能开发商和提供商,只要他们的人工智能系统在欧盟市场使用,《人工智能法案》对参与人工智能价值链的各经营者的义务进行了规制。
具体来说,《人工智能法案》的适用对象包括以下几类:
(1)在欧盟境内将人工智能系统投放市场或提供服务或将通用人工智能模型投放市场的提供者,而无论他们是否设立或位于欧盟境内或者境外;
(2)在欧盟境内设立或者位于欧盟内的人工智能系统部署者;
(3)设立或者位于第三国的人工智能系统提供者或者部署者,其系统产生的输出用于欧盟;
(4)人工智能系统的进口者和分销者;
(5)将人工智能系统与产品一起以自己的名义或者商标投放市场或者投入使用的产品制造商;
(6)没有设立在欧盟境内的提供者的授权代表;
(7)欧盟境内受影响者。
主要经营者的具体内涵可以参见下表:
人工智能价值链上的经营者 | 含义 |
---|---|
提供者 | 指开发人工智能系统或通用人工智能模型,或已开发人工智能系统或通用人工智能模型,并以自己的名义或商标将其投放市场或提供服务的自然人或法人等,无论有偿还是无偿 |
部署者 | 在其权限范围内使用人工智能系统的自然人或法人等(不包括个人非职业活动) |
进口者 | 在欧盟设立或者位于欧盟境内的自然人或法人,其将带有第三国自然人或法人名称或商标的人工智能系统投放到欧盟市场 |
分销者 | 供应链中的自然人或法人,非提供者或者部署者,其在欧盟市场提供人工智能系统,无论有偿或者无偿 |
产品制造商 | 将人工智能系统与产品一起以自己的名义或者商标投放市场或者投入使用 |
授权代表 | 指位于或设立在欧盟的任何自然人或法人,接受了人工智能系统或通用人工智能模型的提供者的书面授权,代表其履行和执行本条例规定的义务和程序 |
《人工智能法案》还限定了不适用的情形,包括但不限于(1)专门为军事、国防或国家安全目的而投放市场、提供服务而使用的人工智能系统;(2)专为科研和开发目的而开发和提供的人工智能系统和模型及其输出;(3)投入市场或提供服务之前的对人工智能系统的研究、测试和开发活动;(4)纯粹个人非职业活动中使用人工智能系统的自然人;(5)根据免费或者开源许可发布的人工智能系统,除非作为高风险人工智能系统或者属于第5条(禁止的人工智能系统)或50条规定的情形,等等。
《人工智能法案》针对适用对象中不同主体的合规义务进行了具体规定。例如,高风险人工智能系统的提供者、进口者、分销者、部署者的义务在第三章进行了规定。此外,要注意的是进口者、分销者、部署者或其他第三方在一定条件下也可能视为高风险人工智能系统的提供者。
从上述适用对象可以看到,《人工智能法案》不仅适用于向欧盟提供人工智能系统或者使用人工智能系统的企业,也适用于只有输出结果用于欧盟境内的企业。因此,向欧盟提供包括人工智能系统的产品或者服务的中国企业都可能成为监管的对象。不过,对人工智能系统的研究、测试和开发活动以及自然人的非职业活动不属于《人工智能法案》适用的对象。
PART 03 人工智能系统的风险级别
监管框架为人工智能系统定义了四个风险级别。所有被认为对人们的安全、生计和权利构成明显威胁的人工智能系统都将被禁止,诸如从政府的社会评分到使用语音辅助鼓励危险行为的玩具。3
以下是关于风险级别的列表, 现有的人工智能系统的实际数量随风险等级的递减是增加的,即被禁止和高风险人工智能系统实际占比较小。
基于风险的分类 | 合规水平 | 举例 |
---|---|---|
禁止的人工智能系统(不可接受的风险) | 禁止 | 利用潜意识、欺骗或操纵手段,扭曲行为,造成重大伤害;利用年龄、残疾、经济状况等弱点扭曲行为,造成重大伤害;从互联网或闭路电视无区别抓取图像创建面部识别数据库;工作场所或教育机构中的情感识别系统(有例外);通过生物特征分类来推断敏感数据(有例外);实时远程生物识别(有例外)等。 |
高风险人工智能系统(对欧盟内人员的健康、安全和基本权利有重大有害影响的系统) | 严格合规义务 只有在符合特定强制性要求的情况下才能进入欧盟市场、提供服务或加以使用 | 生物特征识别、关键基础设施安全组件(例如供水、气、暖、电的管理)、教育和职业培训、招聘、获取私人服务和公共服务(例如信用评分、医疗保健、健康和人寿保险)等 |
有限风险人工智能系统(对健康、安全和基本权利有明显的损害风险) | 透明度义务* (需要登记) | 与人直接交互的一些人工智能系统(例如聊天机器人);由人工智能系统操控的 “深度伪造”的视觉或音频内容等。 |
最小风险人工智能系统 | 无特别监管要求 | 所有其他不属于上述类别的人工智能系统(例如照片编辑软件、垃圾邮件过滤软件、日程安排软件)。 |
根据上述风险分级,企业可以对人工智能产品或者服务建立一个合规框架,除了对新的产品或者服务进行风险评估和合规性审查之外,还需对现有的产品或者服务定期进行评估,因为现有的产品或者服务随着用户规模、用户对象、服务内容、系统改进等其风险等级可能会发生变化。同时,为了避免落入禁止的人工智能系统的范围,对产品或者服务进行伦理性、透明度、安全性和稳健性等方面的评估也是必要的。
PART 04 高风险系统的主要合规要求
《人工智能法案》的第三章专门针对高风险人工智能系统,这也是欧盟监管的重点。
第三章中规定的提供者的义务主要包括:
(1)建立质量管理体系(第17条),其包括风险管理系统(第9条);
(2)数据治理(第10条);
(3)技术文件和记录保存(第11、12、18、19条);
(4)透明度和向部署者等提供信息(第13条);
(5)实现人工监督(第14条);
(6)符合稳健性、准确性、安全性的合规标准(第15条);
(7)投放市场之前的合规评估和投放市场之后的义务;
(8)应国家主管机关的合理要求,证明高风险人工智能系统符合规定;
第三章规定的部署者义务主要包括:
(1)在人工智能系统投入使用之前进行基本权利影响评估;
(2)由具有必要培训和能力的人进行人工监督;
(3)确保数据与高风险人工智能系统的预期目的相关;
(4)根据使用说明监测高风险人工智能系统的运行情况,并在必要时通知提供者,当认为可能出现国家层面的风险时,立即通知提供者或经销商和有关市场监督管理机关,并暂停使用该系统;
(5)高风险人工智能系统的部署者应留存该高风险人工智能系统自动生成的日志;
(6)在工作场所投入或使用高风险人工智能系统之前,作为雇主的部署者应告知工人代表和受影响的工人,他们将受到该系统的影响;
(7)用在公共机关、欧盟机构等的高风险人工智能的部署者要符合相关登记要求;
(8)高风险人工智能系统履行数据保护影响评估;
(9)高风险人工智能系统的部署者在做出或协助做出与自然人有关的决定时,应告知自然人其须使用高风险人工智能系统。
(10)部署者应与相关国家主管机关合作,采取与高风险系统有关的任何行动,以执行本条例。
从以上规定可以看到,针对重点监管对象的高风险人工智能系统,企业的合规要求和合规成本都比较高。部分人工智能系统可能面临欧盟多个法律法规的规制,例如可能涉及产品准入合规、GDPR合规,同时涉及《人工智能法案》的合规,诸如使用人工智能系统的医疗器械产品、安防产品等等。根据该法案中的陈述性部分(recital clauses),不属于高风险的标准和执行准则会陆续发布,同时会附有人工智能系统高风险和非高风险的案例的实例清单。
PART 05 针对通用人工智能模型的规定
《人工智能法案》在第3条对通用人工智能模型给出了定义:包括使用大量数据进行大规模自我监督训练的人工智能模型,该模型显示出显著的通用性,能够胜任各种不同的任务,无论是以何种方式投放到市场,并可被集成到各种下游系统或应用程序,但投放于市场前用于研究、开发或原型设计活动的人工智能模型除外。
通用大模型,例如 Open人工智能的 ChatGPT、Meta 的 Llama 或 Google 的 Gemini,可以被用于几乎无限的用途。因此,他们与具有单一或者特定功能的人工智能系统具有不同的特点。该法案通过对这样的通用人工智能模型单独分类,试图来解决上述人工智能系统的风险分级无法完全适用通用人工智能模型的问题。
通用人工智能模型被分为了具有系统风险的通用人工智能模型和其他通用人工智能模型,以下通过表格来简要说明两类通用人工智能模型的区别:
等级 | 描述 | 合规要求 |
---|---|---|
具有系统风险的通用人工智能模型 | 评估标准列在附件第十三条(如果通用人工智能模型用于训练的累计计算量,以浮点运算计大于10^25,则被推定为具有高影响能力) | 除了第53条之外,提供者还有以下义务(第55条): 1. 对模型进行评估; 2. 评估和减轻系统风险; 3. 记录并报告严重事件以及可以采取的措施; 4. 确保基础设施的网络安全。 |
其他通用人工智能模型 | 除上述之外的通用人工智能模型 | 提供者义务规定在第53条,其包括: 1.编制和更新技术文件,并根据要求提供; 2.向下游人工智能提供者提供信息和文件; 3.遵守欧洲版权法; 4.根据由人工智能办公室提供的模板,起草并公开有关用于通用人工智能模型训练的内容的足够详细的摘要。 授权代表义务规定在第54条。 |
通用人工智能模型与其他人工智能系统采用了不同的分级方式,并且附加了不同的义务。而建立在通用人工智能模型上的人工智能系统可能属于高风险的人工智能系统。附件11详细列明了所有通用人工智能模型提供者需要向有关机关提供的信息,需要注意的是这些信息有可能会涉及到企业的商业秘密。此外,免费且开源的通用人工智能模型(排除系统风险人工智能模型)的提供者可以免除部分义务。
PART 06 处罚措施
不合规情况 | 处罚措施 |
---|---|
违反禁止人工智能行为的规定 | 最高3500万欧元的行政罚款,企业最高为上一财政年度全球营业额总额7%,较高者为准 |
不遵守运营者与通知机构的有关规定的提供者、授权代表、进口者、分销者、部署者 | 最高1500万欧元的行政罚款,企业最高为上一财政年度全球营业额总额3%,较高者为准 |
向通知机关和国家主管机关提供不正确、不完整或误导信息的 | 最高750万欧元的行政罚款,企业最高为上一财政年度全球营业额总额1%,较高者为准 |
对小微企业,罚款按照上述执行,但以较低者为准;由主管国家法院或者成员国适用的其他机关处以罚款。
PART 07 《人工智能法案》实施的时间表
时间 | 事件 |
---|---|
在《官方公报》上公布20天之后 | 法案生效 |
生效之后24个月 | 除以下情况,法案适用 |
生效之后6个月 | 第一章和第二章适用(禁止的人工智能) |
生效之后12个月 | 第三章第4节(设立通知机构)、第五章(通用目的人工智能)、第七章(治理,欧盟机构设立)和第十二章(罚则)适用 |
生效之后36个月 | 第6条第1款(涉及安全组件的高风险人工智能)和本条例中的相应义务 |
《人工智能法案》预计在2024年4月上旬进行第二次表决,且预计在2024年5月底公布。大部分条款的适用至少要等到2026年。需要注意的是,禁止条款在法案生效之后6个月即开始适用,关于通用人工智能模型的条款在法案生效之后12个月即开始适用。 由于全面实施还有至少两年,该法案的实际执行强度和实施效果还未可知,但其必然会影响其他国家和地区的人工智能监管政策的制定。
相比《人工智能法案》,我国近两年已经出台了一系列与人工智能相关的政策法规,走在了全球其他国家的前列,包括《互联网信息服务算法推荐管理规定》(2023年3月1日生效)、《互联网信息服务深度合成管理规定》(2023年1月10日生效)、《生成式人工智能服务管理暂行办法》(2023年8月15日生效)、《科技伦理审查办法(试行)》(2023年12月1日实施)、《网络安全技术
生成式人工智能服务安全基本要求(TC260-003)》(2024年2月29日发布)等。
面对陆续出台的法律法规,企业需要根据自身产品或服务所面向的国家和地区,了解并跟踪当地的法律法规。在合规过程中,企业不仅要考虑技术本身的合规性,还要考虑在管理层面建立风控体系、标准操作流程、监督审查体系(如伦理审查)等,以适应未来出台的更多监管要求。
1. https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law
2. Artificial Intelligence Act:https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_EN.html
3. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-AI