前沿观察,

人工智能(AI):科技伦理治理走起

中国 | 中文
所在网站 :    中国   |   中文
澳大利亚
中国香港特别行政区
新加坡
美国
全球

标题:知识产权数字经济人工智能

引言

随着人工智能深度学习能力的不断强化,人工智能技术大幅发展,ChatGPT、Bard等大模型的陆续推出,人工智能技术开始被广泛地应用于人们日常生活的方方面面。不过,正如过去诸多科幻类作品所展示的那样,现实中,人工智能的发展带来的科技伦理问题也逐步显现。例如,当人工智能使用的训练数据本身存在虚假、错误信息时,或人工智能被用于炮制虚假、错误信息时,人工智能将助推虚假、错误信息的传播。再如,尽管人工智能技术研发的初衷是使得人们得以从一些简单重复的工作中脱离出来进而从事更具有创造性的工作,人工智能自动生成的绘画、诗句、文章展现出的出乎人们意料的创造力,引发了社会对于人工智能取代人类的忧虑以及对就业市场的巨大冲击。在近期的好莱坞编剧罢工事件中,为了避免被AI取代,好莱坞编剧们提出了AI生成的文学材料不得被视为人类撰写的文学材料、禁止利用编剧的劳动成果来训练AI等一系列诉求。再如,人工智能系统可能包含强化或固化歧视或偏见的应用程序和结果,这将加剧社会中已有的歧视、偏见与成见。此外,人类为使用人工智能提供的服务,也将涉及向人工智能提供生理信息、行为偏好、兴趣偏好等个人隐私信息,如前述信息被不当收集和利用,人工智能将极有可能成为窥探个人隐私、侵扰个人生活的工具。

为了应对上述人工智能带来的伦理问题,联合国教育、科学及文化组织于2021年11月23日通过《人工智能伦理问题建议书》(Recommendation on the Ethics of Artificial Intelligence,“《建议书》”),提出了人工智能系统生命周期的所有行为者应尊重的价值观和原则以及落实前述价值观和原则的政策行动,建议会员国在自愿基础上适用《建议书》的各项规定,根据本国的宪法实践和治理结构并依照国际人权法在内的国际法采取适当步骤,包括进行必要的立法。目前,欧盟、美国和英国等国家和地区均已出台了一系列监管规则,与此同时,我国科学技术部会同教育部、工业和信息化部、国家卫生健康委等十部门联合印发的《科技伦理审查办法(试行)》正式明确了我国的科技伦理审查体系。

本文重点内容包括:

  • 全球各地区的人工智能伦理治理体系的概述性介绍;
  • 我国最新出台的《科技伦理审查办法(试行)》的要点解读;
  • 结合我国的监管要求,对于大模型服务提供者的人工智能伦理治理责任的梳理;
  • 大模型服务提供者提供应对人工智能加速突破和应用所带来的伦理风险与挑战的可行路径探索。

一、国外AI伦理治理监管体系概述

目前欧盟、美国及英国均已出台了与人工智能相关的监管规则,科技伦理的治理是其中的重点。具体如下:

1. 欧盟

《人工智能法案》(Artificial Intelligence Act)作为欧盟人工智能监管体系的核心,在经历了一系列修正之后,目前将进入欧盟委员会、议会和成员国三方谈判协商的程序从而确定最终版本。《人工智能法案》是欧盟首部有关人工智能的综合性立法,其以人工智能的概念作为体系原点,以人工智能的风险分级管理作为制度抓手,以人工智能产业链上的不同责任主体作为规范对象,以对人工智能的合格评估以及问责机制作为治理工具,从人工监管、隐私、透明度、安全、非歧视、环境友好等全方位监管人工智能的开发和使用,详细规定了人工智能市场中各参与者的义务。

在伦理治理方面,《人工智能法案》强调,人工智能应该是一种以人为本的技术,不应该取代人类的自主性,也不应该导致个人自由的丧失,而应该主要服务于社会需求和共同利益,因此应提供保障措施,以确保开发和使用尊重欧盟价值观和《欧洲联盟基本权利宪章》(Charter of Fundamental Rights of the European Union)的道德嵌入式人工智能。对于AI系统的风险分级标准,《人工智能法案》将伦理风险作为考量因素,将下述类型的AI系统归为“存在不可接受风险的AI系统”,在欧盟成员国内将完全禁止该等AI系统投入市场或者交付使用:

  • 采用潜意识技术或有目的的操纵或欺骗技术;
  • 利用个人或社会群体的弱点(例如已知的人格特征或社会经济状况、年龄、身体精神能力);
  • 利用人的社会行为或人格特征进行社会评分;
  • 在公众场所的“实时”(包括即时和短时延迟)远程生物识别系统。

此外,在评估AI系统是否属于“高风险AI系统”时,《人工智能法案》要求考量AI系统对《欧洲欧盟基本权利宪章》所保护的基本权利造成的不利影响的程度,该等基本权利包括:人的尊严、尊重私人和家庭生活、保护个人数据、言论和信息自由、集会和结社自由以及不受歧视的权利、受教育权、消费者保护、工人权利、残疾人权利、性别平等、知识产权、获得有效补救和公平审判的权利、辩护权和无罪推定、良好管理的权利。“高风险AI系统”投放市场及交付使用均受到严格的管控并需履行评估及备案等一系列要求。

2. 美国

美国在联邦层面尚未通过一部完整且专门的针对AI系统的法案,而是试图通过调整政府机构的权利,在现有的立法框架及监管规则内对人工智能进行规制。在伦理治理方面,目前联邦层面的合规重点主要涉及反歧视、保护数据隐私等要求。例如:

(1)《2022年算法问责法案》(Algorithmic Accountability Act of 2022)

2022年2月,美国众议院颁布了《2022年算法问责法案》,要求使用自动化决策系统做出关键决策的企业研究并报告这些系统对消费者的影响,其内容包括是否会因为消费者的种族、性别、年龄等生成对消费者有偏见或歧视性的自动决策等。该法案形成了“评估报告—评估简报—公开信息”三层信息披露机制。此外,联邦贸易委员会还将建立可公开访问的信息存储库,公开发布关于自动化决策系统的有限信息。

(2)《人工智能权利法案蓝图》(Blueprint for an AI Bill of Right)

2022年10月,美国白宫科技政策办公室(OSTP)颁布了《人工智能权利法案蓝图》,提出了指导人工智能的设计、使用和部署的五项原则:技术的安全性和有效性、防止算法歧视、保护数据隐私、告知及解释义务以及人类参与决策,并在技术指南部分针对五项原则中的每一项均解释了原则的重要性、原则所指引的期望以及各级政府到各种规模的公司等多种组织为维护原则可以采取的具体的实施步骤、原则的实践案例。

(3)《美国数据隐私和保护法案》(the American Data Privacy and Protection Act,“ADPPA”)

2022年6月,美国参众两院共同发布了ADPPA,ADPPA规定,如人工智能所使用的数据集涵盖个人信息、数据与隐私,则构成“覆盖算法”;使用“覆盖算法”的大数据持有人,如果对个人或群体构成相应伤害风险,并单独或部分使用“覆盖算法”来收集、处理或传输覆盖数据,则应当根据ADPPA规定的评估标准进行隐私影响评估。另外,ADPPA还对隐私政策的告知与退出机制、反偏见等内容做出了规定。ADPPA规定,企业或代表企业的服务提供商需要告知个人有“选择退出”的权利,即拒绝企业对其个人数据的收集、处理或传输。

(4)《关于通过联邦政府进一步促进种族平等和支持服务不足社区的行政命令》(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through the Federal Government)

2023年2月,拜登签署了《关于通过联邦政府进一步促进种族平等和支持服务不足社区的行政命令》,规定人工智能大模型应避免由于大量输入训练数据中存在的对种族、性别、年龄、文化和残疾等的偏见而导致训练结果输出内容中存在偏见。联邦政府在设计、开发、获取和使用人工智能和自动化系统时,各机构应在符合适用法律的前提下,防止、纠正歧视和促进公平,包括保护公众免受算法歧视。

3. 英国

2021年5月,英国中央数字与数据办公室、人工智能办公室与内阁办公室联合发布了《自动决策系统的伦理、透明度与责任框架》(Ethics, Transparency and Accountability Framework for Automated Decision-Making,“ETAF”),对人工智能涉及的算法和自动化决策的伦理治理要求进行规定。ETAF强调,算法和自动化决策在上线之前应该进行严格的、受控的和分阶段的测试。在整个原型和测试过程中,需要人类的专业知识和监督来确保技术上的弹性和安全,以及准确和可靠的系统。测试时,需要考虑自动化决策系统的准确性、安全性、可靠性、公平性和可解释性。ETAF规定,企业必须对算法或自动决策系统做一个平等影响评估,使用高质量和多样化的数据集,发现和抵制所使用数据中明显的偏见和歧视。ETAF指出,算法或计算机系统应该被设计为完全可以负责和可被审计的,算法和自动化的责任和问责制度应该明确。

二、我国与AI伦理治理相关的法律法规和行业规范概览

1. 法律法规

在我国,2017年,国务院印发《新一代人工智能发展规划》并在该规划中提出了制定促进人工智能发展的法律法规和伦理规范的要求,之后《中华人民共和国科学技术进步法》、《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《网络安全标准实践指南—人工智能伦理安全风险防范指引》等一系列法律法规和相关规定相继对于AI伦理治理的要求予以规定。2022年中共中央办公厅、国务院办公厅发布了《关于加强科技伦理治理的意见》,该意见是我国首个国家层面的、专门针对科技伦理治理的指导性文件,提出了科技伦理治理原则以及基本要求。2023年10月新发布的《科技伦理审查办法(试行)》对于科技伦理审查的基本程序、标准、条件等提出统一要求,标志着我国AI伦理治理监管体系建设进入了新阶段。我们在下表中梳理了我国与AI伦理治理相关的法律法规及其主要内容:

2. 行业规范

除前序法律法规和相关规定以外,在《新一代人工智能发展规划》等政策指引下,各机构、行业也积极响应,陆续发布了一系列AI伦理治理相关的行业规范,包括国家新一代人工智能治理专业委员会制定的《新一代人工智能治理原则——发展负责任的人工智能》、《新一代人工智能伦理规范》、国家人工智能标准化总体组等制定的《人工智能伦理治理标准化指南》、同济大学上海市人工智能社会治理协同创新中心研究团队编制的《人工智能大模型伦理规范操作指引》、中国社会科学院国庆调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》课题组编制的《人工智能法示范法1.0(专家建议稿)》,提供了相关行业的AI伦理治理建议。下表梳理了我国与AI伦理治理相关的行业规范及其主要内容:

三、《科技伦理审查办法(试行)》要点

1. 适用范围

2023年10月8日,科学技术部、教育部、工业和信息化部等多部门联合发布《科技伦理审查办法(试行)》(“《科技伦理审查办法》”),该办法将于2023年12月1日起正式实施。该办法对于涉及以人为研究参与者的科技活动,包括利用人类生物样本、个人信息数据等的科技活动,或不直接涉及人或实验动物,但可能在生命健康、生态环境、公共秩序、可持续发展等方面带来伦理风险挑战的科技活动进行的科技伦理审查和监管做出了明确的规定,由此可见,该办法的适用范围几乎涵盖所有科技活动,包括人工智能相关的科技活动。

2. 审查主体

在审查主体方面,《科技伦理审查办法》明确要求从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。其他有伦理审查需求的单位可根据实际情况设立科技伦理(审查)委员会。单位应在设立科技伦理(审查)委员会后30日内,通过国家科技伦理管理信息登记平台进行登记,登记内容包括科技伦理(审查)委员会组成、章程、工作制度等,相关内容发生变化时应及时更新,并在每年3月31日前,向国家科技伦理管理信息登记平台提交上一年度科技伦理(审查)委员会工作报告。科技伦理(审查)委员会的主要职责包括:

  • 制定完善科技伦理(审查)委员会的管理制度和工作规范;
  • 提供科技伦理咨询,指导科技人员对科技活动开展科技伦理风险评估;
  • 开展科技伦理审查,按要求跟踪监督相关科技活动全过程;
  • 对拟开展的科技活动是否属于《需要开展伦理审查复核的科技活动清单》范围作出判断;
  • 组织开展对委员的科技伦理审查业务培训和科技人员的科技伦理知识培训;
  • 受理并协助调查相关科技活动中涉及科技伦理问题的投诉举报;
  • 按照主管部门要求进行登记、报告,配合地方、相关行业主管部门开展涉及科技伦理审查的相关工作。

在科技伦理(审查)委员会的人员组成方面,科技伦理(审查)委员会人数应不少于7人,设主任委员1人,副主任委员若干;委员任期不超过5年,可以连任。委员会成员应由具备相关科学技术背景的同行专家以及伦理、法律等相应专业背景的专家组成,并应当有不同性别和非本单位的委员,民族自治地方应有熟悉当地情况的委员。由此可见,科技伦理(审查)委员会的设立具备一定门槛,根据《科技伦理审查办法》,如单位或个人涉及开展需进行科技伦理审查的科技活动,但单位未设立科技伦理(审查)委员会或个人无单位的,应书面委托其他单位的科技伦理(审查)委员会开展伦理审查工作。

3. 审查程序

根据《科技伦理审查办法》,科技伦理(审查)委员会开展科技伦理审查的流程如下:

根据《科技伦理审查办法》,针对纳入科技部发布的《需要开展伦理审查复核的科技活动清单》的科技活动,通过科技伦理(审查)委员会的科技审查后,除非国家实行行政审批等监管措施且将符合伦理要求作为审批条件、监管内容的,还需由科技活动承担单位(即开展科技活动的单位)报请所在地方或相关行业主管部门组织成立复核专家组[1]开展专家复核,并由负责该等科技活动的科技审查的科技伦理(审查)委员会根据专家复核意见作出科技伦理审查决定;前序科技伦理(审查)委员会应在纳入清单管理的科技活动获得伦理审查批准后30日内,通过国家科技伦理管理信息登记平台进行登记,登记内容包括科技活动实施方案、伦理审查与复核情况等,相关内容发生变化时应及时更新,并在每年3月31日前向国家科技伦理管理信息登记平台提交上一年度纳入清单管理的科技活动实施情况报告。根据科技部于2023年10月8日附随《科技伦理审查办法》发布的《需要开展伦理审查复核的科技活动清单》,“具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发”、“面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发”均属于需要开展伦理审查复核的科技活动。因此,人工智能相关科技活动除通过科技伦理(审查)委员会的科技审查以外,极有可能还需在复核专家组进行伦理审查复核。

4. 审查内容

根据《科技伦理审查办法》,针对所有需要依法进行科技伦理审查的科技活动,科技伦理审查的具体内容包括:

  • 拟开展的科技活动应符合增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明的科技伦理原则,参与科技活动的科技人员资质、研究基础及设施条件等符合相关要求;
  • 拟开展的科技活动具有科学价值和社会价值,其研究目标的实现对增进人类福祉、实现社会可持续发展等具有积极作用。科技活动的风险受益合理,伦理风险控制方案及应急预案科学恰当、具有可操作性;
  • 所制定的利益冲突申明和管理方案合理。

针对利用人类生物样本、个人信息数据等的科技活动在内的涉及以人作为研究参与者的科技活动,还需审查下述内容:

  • 所制定的招募方案公平合理,生物样本的收集、储存、使用及处置合法合规,个人隐私数据、生物特征信息等信息处理符合个人信息保护的有关规定,对研究参与者的补偿、损伤治疗或赔偿等合法权益的保障方案合理,对脆弱人群给予特殊保护;
  • 所提供的知情同意书内容完整、风险告知客观充分、表述清晰易懂,获取个人知情同意的方式和过程合规恰当。

针对涉及数据和算法的科技活动,还需审查下述内容:

  • 数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等符合国家数据安全和个人信息保护等有关规定,数据安全风险监测及应急处理方案得当;
  • 算法、模型和系统的设计、实现、应用等遵守公平、公正、透明、可靠、可控等原则,符合国家有关要求,伦理风险评估审核和应急处置方案合理,用户权益保护措施全面得当。

四、国内大模型服务提供者的AI伦理治理责任

如我们在《大模型合规之现实初探》一文中所述,向境内公众提供大模型服务的大模型服务提供者,包括平台运营方和技术支持方,均属于生成式人工智能服务提供者,从而均应当承担相应的AI伦理治理责任,具体而言:

在程序层面,在《科技伦理审查办法》正式生效以后,如大模型服务提供者涉及开展《科技伦理审查办法》适用范围内的科技活动,需自行设立科技伦理(审查)委员会或委托其他单位的科技伦理(审查)委员会对于所涉科技活动进行科技伦理审查,如涉及“具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发”、“面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发”,还需报请所在地方或相关行业主管部门组织开展专家复核,亦即,科技伦理审查将成为算法备案以及安全评估以外大模型服务上线前的另一前置程序。

在实体层面,目前尚未出台法律法规对于不同类型的大模型服务提供者的AI伦理治理细则予以规定,尽管如此,一方面,如前文所述,目前《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》均要求大模型服务提供者履行伦理治理方面的合规义务;另一方面,与AI伦理治理相关的国家标准、团体标准以及行业标准均在制定过程中,其发布和施行指日可待。因此,大模型服务提供者可以参照前述《新一代人工智能伦理规范》等行业标准,按照技术主体(即从事人工智能相关的科学研究、技术开发、产品研制等研发活动的主体)、应用主体(即从事人工智能产品与服务相关的生产、运营、销售等人工供应活动和使用活动)进行自我定位,明确自身的AI伦理治理责任。

结语

人工智能技术的大幅进步提高了生产效率,为人类进行创造性智力活动提供了更加便捷的环境,同时,人工智能也对人类社会的伦理道德造成了挑战。《科技伦理审查办法》的颁布,标志着我国对人工智能技术的监管将逐步走向规范化,我们将持续在AI伦理审查和治理等诸多方面助力人工智能领域的企业向以人为本的人工智能时代迈进。

感谢实习生赵鹤翔对本文作出的贡献。

扫码订阅“金杜律师事务所”,了解更多业务资讯

《科技伦理审查办法》第二十八条规定,地方或相关行业主管部门组织成立复核专家组,由科技活动相关领域具有较高学术水平的同行专家以及伦理学、法学等方面的专家组成,不少于5人。科技伦理(审查)委员会委员不得参与本委员会审查科技活动的复核工作。复核专家应主动申明是否与复核事项存在直接利益关系,严格遵守保密规定和回避要求。

参考资料

  • [1]

    《科技伦理审查办法》第二十八条规定,地方或相关行业主管部门组织成立复核专家组,由科技活动相关领域具有较高学术水平的同行专家以及伦理学、法学等方面的专家组成,不少于5人。科技伦理(审查)委员会委员不得参与本委员会审查科技活动的复核工作。复核专家应主动申明是否与复核事项存在直接利益关系,严格遵守保密规定和回避要求。

最新文章
前沿观察
国际证监会组织(International Organization of Securities Commissions, “IOSCO”)发布了题为《人工智能在资本市场中的应用场景及相关风险与挑战》的咨询报告(“《AI报告》”)。该报告汇集了来自IOSCO成员(即各司法管辖区的证券监管机构)及行业参与者就金融产品与服务中应用人工智能(Artificial Intelligence, “AI”)技术所涉问题、风险和挑战的反馈意见,旨在促进各方就AI在资本市场的应用达成共识,并协助IOSCO成员制定相应的监管策略。 本报告系IOSCO继2021年发布《市场中介机构与资产管理机构使用AI及机器学习技术的最终报告》后的又一阶段性研究成果。本次报告充分考虑了人工智能技术的最新发展、行业实践以及监管政策导向。作为IOSCO人工智能监管“两步走”战略的第一阶段成果,IOSCO后续将据此制定更具操作性的监管工具与实施建议,为IOSCO成员提供进一步指导。银行与融资-金融科技,证券与资本市场,人工智能

2025/04/09

前沿观察
近年在破产领域,预重整无疑是一个热门话题。受限于重整程序的严时限性和不可逆性,以及庭外重组可能出现的个别债权人“钳制”现象,预重整被期待成为优势兼得、限制并克的补充制度。尽管我国《企业破产法》未规定预重整制度,但随着实践的需求,以及在最高人民法院及国家发展改革委等中央部门的鼓励和指引下,各地的预重整规则密集出台,实践探索也日益增多。在上市公司重整领域,最高院与中国证监会于2024年12月发布的《关于切实审理好上市公司破产重整案件工作座谈会纪要》也首次提到上市公司庭外重组事项。根据公开信息不完全检索,截至2024年底,全国共计出台了130份预重整制度相关文件,上市公司启动预重整案件近百件,非上市公司预重整案例更是不计其数。 2024年度预重整制度依然保持发展的良好态势,也呈现出一些新的特点,包括:一是上市公司实施预重整的情况更为普遍;二是相较于前几年密集出台预重整规则,2024年各地规则出台数量明显减少;三是我国预重整仍处于探索阶段,各地实践较为多元。尤其在制度定位、法律效力、程序衔接上有待进一步统一。

2025/04/09

前沿观察
特拉华州长期以来都是美国大型公司优选的公司注册地,包括三分之二的《财富》500强企业在该州注册,特拉华州也是中资赴美投资设立公司实体的首选注册地,这得益于其发达的法律体系(尤其是丰富的司法判例)、经验丰富的高质量司法从业人员(包括法官)以及高效的法律审查机制。特拉华州法被普遍认为是对商业更加友好的(pro-business)。然而,近年来特拉华州法院判例的发展使企业面临更多的不确定性,诉讼风险大幅上升。其中,最具代表性的案例之一是特拉华州衡平法院推翻了特斯拉公司董事会的决议,驳回了股东批准的薪酬方案。随后,特斯拉以84%的非控股股东支持率决定将公司注册地迁往得克萨斯州, SpaceX也一同迁往得克萨斯州。此外,近年从特拉华州搬迁至内华达州的公司包括Dropbox、TripAdvisor、Neuralink、Pershing Square等。得克萨斯州和内华达州成了特拉华州的有力竞争者。公司与并购-跨境投资和并购

2025/04/08