前沿观察,

人工智能:伦理准则与现行规制

中国 | 中文
所在网站 :    中国   |   中文
澳大利亚
中国香港特别行政区
新加坡
美国
全球

作者:宁宣凤 吴涵 陈胜男 刘阳璐

从娱乐、出行到日常消费,人工智能正在悄然改变着我们的生活。大家可能已经习惯智能"美颜"后的自己,享受"刷脸支付"的便捷,甚至和Siri聊起了家常。而当AlphaGo击败人类围棋大师,人工智能利用深度学习能力挑战人类记忆高手,人们又不得不对这一由人类创造的"智能"产生莫名恐惧:我们一手创造了"它",但当"它"超过了人类的一般认知,我们还能否有效地控制"它"?当某型号飞机自动驾驶系统在错误的信号下撞向地面后,人们开始严肃的讨论人工智能的边界以及监管路径。

从人工智能的研发、应用和监管多个环节出发,类似的讨论集中在人工智能的伦理原则、安全管控、决策机制、数据合规等不同方面。本文将作为"智创未来:人工智能的伦理与合规"系列的开篇介绍目前人工智能的发展现状和主要应用场景、主要国家对于人工智能的伦理关注以及现有法律法规对人工智能的监管"抓手"。

一、 人工智能的发展现状

1、 人工智能的技术体系架构和重要要素

发展人工智能,离不开计算算力、算法、数据三大要素[1]。 其中,计算算力是人工智能发展的主要助推力,人工智能的核心技术算法为人工智能应用落地提供了保障,而海量数据为算法模型提供基础,是人工智能前沿技术发展的重要资源。当前,人工智能基础算法较为成熟,深度学习的人工智能算法快速发展;而数据的价值在人工智能时代也日益凸显,成为企业的重要资产,并为更高级的算法提供素材[2]。 

2、 人工智能进入产业化应用阶段

总的来说,人工智能产业链可分为基础层,技术层和应用层。其中基础层提供计算力,由数据中心及运算平台构成,技术层解决技术开发与输出,开发面向不同领域的技术,应用层主要为行业提供服务、产品,其核心在于提供商业化解决方案。目前人工智能技术在很多产业和领域已经得到广泛应用,人工智能应用层面的创业者利用海量数据和市场优势,将人工智能技术直接用于终端产品层面的研发,助力人工智能进入产业化应用阶段[3]。 

技术层面上,智能语音、自然语言处理和计算机视觉等基础应用技术日臻成熟,逐渐形成了商业和产业化模式,多个科技巨头都在该层面深度布局。而应用层的企业则利用人工智能技术针对不同场景或行业领域研发产品或提供服务,其中,与技术相关的应用领域和应用场景包括:

第一, 智能语音技术被广泛应用于智能家居、智能车载、智能客服等领域,例如,个人智能语音助手,特别是智能手机的语音助手,极大地提高了手机的易用性;智能音响在播放音乐之外,还可以连接和控制智能家居终端设备的各类产品,为家庭日常交互提供便利。除智能语音技术之外,其他的人机交互技术还处于初期发展阶段,例如近年来体感交互游戏推陈出新,但多数游戏的体验感欠佳[4]。 

第二, 自然语言处理技术的应用方向主要包括文义解析、机器翻译以及信息的过滤与检索,其中机器翻译是近来的热门应用方向,但受制于语义理解及分析的复杂性,机器翻译的质量还有待提高。

第三, 计算机视觉的应用较为宽泛,应用领域包括安防、交通、医疗、互联网消费等,例如,我国火车站通过摄像头采集旅客人脸信息,与身份证人脸信息进行验证;用户通过在电商平台上传意向产品或类似产品的照片进行搜图购物;游戏玩家通过AR、VR游戏享受沉浸式游戏体验等。

第四, 知识图谱被广泛应用于智能搜索,知识问答、个性化推荐领域,并可辅助行业进行大数据的分析与决策,如各大视频平台利用其注册用户的观看行为建立知识图谱,分析用户喜好并进行相关内容的推送[5]。 

除此之外,多个行业利用复合型的人工智能技术实现产品的更新迭代,例如智能机器人、自动驾驶等。

二、 人工智能技术引发的伦理关注

站在普通公众的视角,我们一边感叹于人工智能的强大能力,另一边也不由得对其模拟人类心智思维的"黑科技"充满敬畏。人们谈人工智能越多,似乎越容易陷入"人机对立"的焦虑:当人工智能未来能够发展出具有自我意识的产品,是否应当被赋予人类同等的权利?人工智能的产物未来是否可能会与人类形成对立?当具有自我意识的人工智能产品作出侵害他人权益的行为,谁应该承担起这份责任?当下,人工智能技术进入新的发展阶段,并快速渗透各行各业,融入人们日常生活,这些"终极拷问"已不仅仅出现在影视作品创造的"高科技幻影"中。一方面,公众对于人工智能技术的认知有限,迅速发展的人工智能技术使得公众产生了恐慌心理,导致人们认为人工智能技术成果的难以预测、量化和评估;而另一方面,人类的认知能力本身具有社会局限性,每一个特定的历史阶段所取得的知识成果都受到时代条件的局限,因此,我们客观上也难以准确评估和完整预测人工智能的发展可能存在的风险。

正是意识到人工智能发展的不确定性,多数国家在鼓励人工智能技术开发应用的同时,也从国家政策、法律法规层面对于人工智能的发展方向给予指引。国务院于2017年7月发布的《新一代人工智能发展规划》已认识到人工智能发展可能引发方方面面的社会问题,例如可能改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。因此,国务院要求在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,确保人工智能安全、可靠、可控发展,提出要重视人工智能法律伦理的基础理论问题研究,并且要有步骤地建立起人工智能伦理规范和政策法规体系,加大对数据滥用、侵犯个人隐私、违背道德伦理等行为的惩戒力度。[6] 2019年6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南,强调了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八项原则[7]。 

国际社会对于人工智能的伦理探讨也由来已久。2016年8月,联合国教科文组织(UNESCO)和世界科学知识与技术伦理委员会(COMEST)联合发布了《机器人伦理报告初步草案》(Preliminary Draft Report of COMEST on Robotics Ethics),讨论了机器人的制造和使用促进了人工智能的进步,并审视了机器人的应用以及人类与机器人互动所可能产生的伦理问题。[8] 美国电气和电子工程师学会(IEEE)也从2016年开始致力于人工智能在技术和伦理考虑方面的标准制定工作,并于2016年12月发布的《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》(Ethically Aligned Design, A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems)第一版,旨在鼓励科技人员在人工智能研发过程中优先考虑伦理问题,并就人工智能及自主系统涉及的伦理问题进行专题性阐述。 [9]目前该文件的第二版已于2017年12月发布[10]。 随着理论研究的不断深入,近年来,不少国家和地区基于对人工智能伦理规范的长期研究,在形成人工智能未来发展的伦理性准则或要求方面有了最新进展。下表对于2019年以来部分国家和地区在人工智能伦理准则方面的最新文件进行了总结和梳理。

  • 欧盟

- 欧盟于2019年4月8日公开发布了《可信赖人工智能伦理准则》((Ethics Guidelines for Trustworthy AI)  "《欧盟准则》")[11],指出人工智能的发展方向应为"可信赖AI",并据此确立了人工智能发展的三项基本要素,即(1)人工智能技术须符合法律规定,(2)人工智能技术须满足伦理道德原则及价值,以及(3)人工智能在技术和社会层面应具有可靠性。

- 《欧盟准则》对于伦理原则的内涵做了进一步阐释,包括尊重人类自主性、防止侵害,以及公平性和明确性。在伦理原则要求下,《欧盟准则》也提示人工智能技术应用过程中应重点关注和保护弱势群体的利益,包括儿童、残障人士以及其他因信息不对称而存在相对弱势地位的场景,包括在雇主与雇员以及企业与消费者关系场景等。

- 此外,《欧盟准则》还提出了"可信赖AI"应当满足七项要求,即通过技术或非技术方式保障人工智能技术保障人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。

  • 美国

- 美国国家标准与技术研究院(NIST)于2019年8月发布了《美国如何领导人工智能:联邦参与制定技术标准及相关工具的计划》(US Leadership in AI: A Plan for Federal Engagement in Developing Technical Standards and Related Tools)("《计划》")。《计划》根据2019年2月美国总统特朗普发布的第13859号启动"美国人工智能行动倡议"的行政令所颁布,旨在确保使用人工智能技术的系统可靠、稳健和值得信赖。

- 《计划》提出了有助于美政府推动负责任地应用人工智能的多项举措,建议美国政府更加深入并长期地参与人工智能标准的制定工作。在人工智能的伦理考量角度,《计划》强调,参与人工智能标准制定的人必须了解并遵守美国政府的政策和原则,包括涉及社会和道德问题,治理和隐私的政策和原则。

- 为促进人工智能标准的开发和使用,《计划》进一步建议美国政府促进跨科学科的研究和协作,以增加对社会和伦理考虑在人工智能领域相关性的理解。同时,在制定有关社会与伦理考虑的标准过程中,应当区分技术与非技术标准。

  • 日本

- 日本"增强和促进创新的人工智能战略专家会议"于2019年2月15日决定成立"以人为本的人工智能社会原则委员会",委员会会议的一般事务将由内阁办公室与有关行政机构合作处理。在此基础上,委员会会议形成了《以人为本的人工智能社会原则》(Social Principles of Human-Centric AI)[12]。 

- 该文件强调了人工智能的应用应服务于全人类和社会公众利益,并指出人工智能发展须以实现尊重人类尊严、多样化和包容性、可持续发展等基本的社会发展理念为目标,强调了人工智能的使用不应侵犯宪法和国际法上所保障的基本人权,避免过度依赖人工智能导致其操纵人类决策等。

- 该文件第四部分明确了人工智能应当满足的社会原则:(1)以人为本;(2)教育/扫盲原则;(3)隐私保护原则;(4)确保安全原则;(5)公平竞争原则;(6)公平、问责制和透明度原则;(7)创新原则。

  • 新加坡

- 2019年1月,新加坡个人数据保护委员会(PDPC)与信息媒体发展局(IMDA)正式提出《人工智能治理框架建议模型》(A Proposed Model Artificial Intelligence Governance Framework),以帮助企业解决因跨行业使用人工智能技术带来的道德以及管理方面的问题。该文件所述人工智能模型框架主要侧重于四个领域:内部治理,决策模型,运营管理和客户关系管理。[13] 

- 该文件明确其提出的模型框架基于两项基本指导原则,即(1)人工智能制定或协助的决策应该是可解释的,透明的,对消费者是公平的;以及(2)人工智能实施应该以人为本。

  • 澳大利亚

- 2019年4月,澳大利亚工业创新和科技部发布了澳大利亚政府资助英联邦科学与工业研究组织CSIRO的Data61起草的《人工智能:澳大利亚的伦理框架》(Artificial Intelligence: Australia's Ethics Framework)讨论稿,旨在明确人工智能技术不同应用场景下所应当关注的伦理性问题,应用场景涵盖数据治理、自动化决策、人类行为预测,并探讨了人工智能应用的两个现有的典型场景——自动驾驶和安防技术应用下所应当关注的问题。 

- 该文件基于此前各界对于人工智能伦理研究的基础上,明确提及人工智能须关注的八个核心原则:(1)产生福利原则;(2)不侵害原则;(3)合法合规原则;(4)保护隐私原则;(5)公平原则;(6)透明和可解释原则;(7)可争议原则;(8)问责原则。[14]

- 该文件也进一步指出,数据是人工智能的核心,因此人工智能的应用也不可避免与隐私和数据相关的问题密切关联,据此,应当对人工智能使用不适当或不准确的数据集所可能导致的歧视性问题予以关注。

三、 规范人工智能技术应用的法律规则和难题

可以看出,各国、各地区已经从国家政策和原则导向的高度,尝试对人工智能的未来发展划出一条"伦理"界限。在基本原则的设定上,各国一致强调人工智能发展应当"以人为本"、"合法合规",寻求人工智能的公平、透明和安全的成长环境,一方面为人工智能向健康、可信赖的方向发展提供引导,另一方面则有助于帮助公众深化对人工智能技术的认知,消除因技术的未知而带来的社会焦虑与群体恐慌。这些基本的伦理准则并不是"纸上谈兵",实际上基本的精神已经贯穿在规范人工智能技术发展与应用的行为要求和法律文件中,并随着社会对人工智能技术认知的不断加深而更加具象和细化。当然,规则的落地也往往遇到诸多实践难题,如何确保在多方利益主体诉求中寻求各方利益的平衡,仍旧值得我们深思与探讨。
立足于人工智能技术应用的不同场景,各国及行业立法和监管层面均以"以人为本"原则为起点,保障人的主体权益保护的具体落实。例如:

  • 机器学习:数据保护与行业发展的平衡

    人工智能技术的发展离不开数据。前述《人工智能:澳大利亚的伦理框架》也强调了数据在人工智能技术发展进步中的核心地位。基于深度学习的人工智能技术,需要基于大量的数据基础,通过计算找寻数据中的规律,运用该规律对具体任务进行预测和决断。这一学习过程则不可避免要求企业充分挖掘、采集和处理数据,以为机器的深度学习提供"养分"。此时,则需要站在人工智能技术发展"合法合规"的原则角度,充分审视企业在为人工智能的学习训练收集数据的过程中,其手段、方式等是否符合法律要求。例如,当企业以爬虫方式从公开网站获取数据时,如果采取了不当措施导致被采集的网站经营者权益遭受侵害的,则应当承担相应的法律责任。结合我国司法实践,针对不当采取爬虫技术抓取数据而损害他人权益的行为,既可从反不正当竞争的角度,对于该种行为予以民事侵权上的苛责;在情节严重的情况下,例如使用技术手段规避或突破他人网站设置的技术保护措施的手段抓取数据的,甚至可能构成侵入计算机信息系统等犯罪行为;而在抓取的数据属于他人采取技术措施保护的个人信息的情况下,也将可能落入侵犯公民个人信息罪的范畴,从而需要承担相应的刑事责任。正是注意到爬虫等自动化数据采集手段对于多方利益带来的困扰,我国在最近颁布的《数据安全管理办法(征求意见稿)》中为自动化采集划出"红线",[15] 在刑事责任之外,以行政性规范要求的方式力求实现自动化数据采集的规范运作。

  • 人脸识别:个人数据权益与公共安全监控的冲突

    如前所述,计算机视觉技术已经开始广泛应用。在金融、移动、安防等产业,人脸识别是当前商业成熟度较高的计算机视觉产品,广泛应用于账号身份认证、手机刷脸解锁、人流自动统计和特定人物甄别等诸多场景。[16] 然而,人脸识别技术由于涉及人们面部生物特征的采集与识别,具有极高的隐私敏感性;如稍被滥用,则可能对公民隐私保护产生极大威胁。正是考虑到技术不成熟和技术滥用可能导致的隐私威胁,部分国家、地区开始对公权力机关使用人脸识别技术进行执法活动予以限制和禁止。2019年7月17日,美国的奥克兰市通过一项法案,包括警察在内的市政机构人员将被禁止获得或使用人脸识别技术,成为继今年五月份旧金山和六月份萨默维尔后,美国第三个禁用人脸识别技术的城市。 [17]奥克兰市议会主席在其报告中表示,人脸识别技术通常并不准确,可能具有入侵性,且缺乏统一标准。报告进一步指出,错误的人脸识别可能导致滥用武力、错误监禁,且可能加剧种族偏见问题。[18] 从公权力的角度,人脸识别技术确乎为公共安全监控提供了更加高效、便利的途径,在我国已被使用于诸多安监及犯罪侦查场景,例如火车站进站验证、酒店入住验证、犯罪嫌疑人面部匹配等。而另一方面,人脸识别涉及较高敏感度的个人隐私信息,以实现公共安全防控目的而过多采集和处理公民隐私信息,是否合乎必要原则仍有待商榷;而当技术由于本身局限性而做出错误决策,导致公民主体权益受损时如何弥补,也为人脸识别技术的应用提出了难题。

  • 自动化决策:机器决策下的个人主体权益保障

    在人工智能算法应用于自动化决策的场景下,相关法律法规从保障主体权益的角度,立足于公平原则,对企业应用自动化决策技术提出了具体要求。我国《电子商务法》第十八条要求电子商务经营者在根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果时,应当同时向该消费者提供不针对其个人特征的选项。当前,电子商务经营者积累了大量用户个人信息、交易记录等,并利用大数据对消费者进行个人画像,通过自动化决策技术,能够实现为消费者呈现个性化的搜索展示,实现精准营销。这种"区别化"对待的方式,极易因自动化决策程序的算法设置而缩减甚至抹杀用户全面了解商品价格、商品信息的机会,从而对其知情权和公平交易的权利造成侵害。据此,法律要求电子商务经营者应同时为消费提供非基于自动化决策的商品搜索结果,以实现尊重和平等保护消费者合法权益。类似的,在《信息安全技术 个人信息安全规范》中,明确提及如果当仅依据信息系统的自动决策而做出显著影响个人信息主体权益的决定时(例如基于用户画像决定个人信用及贷款额度,或将用户画像用于面试筛选),个人信息控制者应向个人信息主体提供申诉方法。这一要求旨在确保当主体权益因自动化决策结果而受到影响时,保障受影响的主体质疑自动化决策所做结论的权利。

当然,对于人工智能引发的问题思考不止步于此。当下,随着人工智能产品越来越趋于复杂化,各类技术的交叉使用、技术的更新迭代必将引发更多的社会问题。而不同学科也在基于不同角度去审视,去一遍又一遍地给予人工智能未来征途以"灵魂敲打"。站在法学领域的高度,上至人工智能是否能够具备法律意义上的"人"的资格这一总括性问题,下至人工智能的"创作"可否受到保护、人工智能侵害他人权益如何进行责任分配等这些具象化问题,均会随着技术的脚步迈向更高层次、更广领域的思考与讨论。这些问题均离不开对人工智能技术的透彻理解。从上述各国人工智能伦理性问题研究的最新进展也可以看出,多数国家对于算法的透明性和可解释性提出了明确要求,这也是解决因算法引发歧视性问题的一个有效路径。我们将在未来的系列文章中与大家做深入的分享和探讨。


[6]http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm 

[8]https://unesdoc.unesco.org/ark:/48223/pf0000245532 

[15]《数据安全管理办法(征求意见稿)》第十六条规定,网络运营者采取自动化手段访问收集网站数据,不得妨碍网站正常运行;此类行为严重影响网站运行,如自动化访问收集流量超过网站日均流量三分之一,网站要求停止自动化访问收集时,应当停止。

[16]参见信通院《人工智能发展白皮书产业 应用篇》

[17]  Oakland bans the use of facial recognition, becoming third US city to do so, see at https://www.foxnews.com/tech/oakland-bans-facial-recognition-third-us-city

[18]Oakland bans use of facial recognition technology, citing bias concerns, see at https://www.sfchronicle.com/bayarea/article/Oakland-bans-use-of-facial-recognition-14101253.php

最新文章
前沿观察
自2023年7月12日《欧盟第2022/2560关于扭曲内部市场的外国补贴条例》(“《外国补贴条例》”)正式施行以来,外国补贴审查制度成为近年来欧盟在竞争政策领域的重要政策工具。2024年,全球格局在复杂多变的国际经济形势下持续演变,自由贸易与贸易保护主义之间的张力愈发显著,《外国补贴条例》的发展与实施始终是国际贸易与投资领域的关注焦点,其发展不仅标志着欧盟在监管框架上的重大变革,也引发了国际社会对全球贸易规则和市场公平竞争的广泛讨论。在这一年中,欧盟委员会(“欧委会”)通过发布工作文件、更新常见问题答复的方式,逐步完善各项详细认定规则,同时运用《外国补贴条例》项下提供的政策工具强化执法,对中国企业在欧盟市场的投资与经营活动保持高度关注。 在此背景下,中国企业在欧盟市场的投资与经营面临着前所未有的挑战与机遇。本文将对2024年欧盟《外国补贴条例》的规则发展与执法情况进行回顾,并根据我们在欧盟《外国补贴条例》领域的实践经验提出展望与建议。

2025/03/19

前沿观察
为了应对气候变化、响应社会议题、提升市场透明度并管理长期风险,欧盟一直将ESG(环境、社会与治理)监管视为实现其战略目标的重要政策工具。自2014年起,欧盟就开始通过立法加强ESG监管。2014年10月22日,欧洲议会和欧盟理事会通过了《非财务报告指令》(NFRD),要求大型公共利益实体在年报中披露有关企业可持续发展的非财务报告。 此后,欧盟分别于2022年12月14日和2024年6月13日通过了《企业可持续发展报告指令》(Directive (EU) 2022/2464,“CSRD”)和《企业可持续发展尽职调查指令》(Directive (EU) 2024/1760,“CS3D”),进一步扩大可持续发展报告义务的适用范围,并新增供应链可持续发展尽职调查要求。 前述法规虽然推动了欧盟的绿色转型目标,但给企业施加了较重的合规负担,引发了经济发展和气候目标之间的冲突。为简化企业在欧盟ESG法规下的ESG合规义务,2025年2月26日,欧盟委员会发布了一项综合指令(Omnibus I)。 在该项综合指令中,欧委会提出了针对CSRD和CS3D等ESG法规的重大修订意见。该指令还将交由欧洲议会和欧盟理事会审议,何时出台仍有不确定性。借此契机,我们对现行CSRD和CS3D下的企业合规要点进行了梳理,并简要总结对本次修订草案的主要内容,供中国出海企业参考。一带一路国际法律业务

2025/03/19

前沿观察
加纳是西部非洲地区的重要国家,长期位列非洲经济体排名前10位,其中采矿业是加纳的经济支柱产业之一。尽管加纳的国内经济近年来面临着供应链限制和财政短缺等经济压力,但采矿业仍然有所增长,据统计,2023年加纳采矿业产业增加值占GDP的12.9%,黄金产量达到420万盎司,较2022年增长了8.3% 。 近年来,加纳也是中企在矿业投资上特别关注的投资地之一。在促进外商投资方面,加纳政府把吸引矿业等关键支柱产业的外国直接投资作为优先事项,支持其工业化计划以振兴加纳经济发展。 2025年1月7日,约翰·马哈马(John Mahama)宣誓就职加纳总统。他在正式上任前已提出要建立强有力的新政,以促进加纳采矿业的可持续发展。目前马哈马已上任两个月,其构想的新政正在逐步落地。 本文将介绍“马哈马新政”中涉及矿业领域改革的重点和加纳矿业投资监管制度,并介绍加纳矿业领域投资的注意事项。公司与并购-跨境投资和并购-能源与自然资源,工程、能源和基础设施-能源和资源

2025/03/18