摘要
利用隐含狄利克雷分布(Latent Dirichlet Allocation,LDA)模型对全球人工智能伦理准则体系进行内容分析,通过对准则关键词的阶段差异对比、核心主题的聚合体系分析,总结出世界范围内人工智能治理共识的6大演变趋势,均表明实践导向已成为核心共识。但人工智能伦理准则存在“可操作性受限、考量要素不同质、伦理洗白、法律转化难”等实践适用性困境,亟须在技术、组织及制度层面弥补实践缺口。
以科技伦理准则为代表的“软体系”先行,在全球范围内广泛讨论技术风险、提出预期治理目标、构建预测性治理机制、细化敏捷性治理方案,将是实现硬法规制的先导性探索。以人工智能技术为例,近年来在全球范围内由政府、企业、社会机构、国际组织、学术团体等利益相关主体提出的治理原则或倡议已有150多个。学者们普遍认为人工智能伦理准则要求下的新兴治理技术的发展是实现可信AI实践的关键,但会涉及复杂的、差异化的技术环节和周
以代表性人工智能准则文本为研究对象,采用内容分析法,利用文本挖掘手段提取准则文本中的关键词和主题信息,聚合出核心主题并分析其内容特性、主体特征及影响范畴,并以此为基础探究准则间的内在联系。同时,通过分析AI准则关键词的阶段性特征,研判全球AI伦理共识的演变趋势,以发现AI伦理治理的关键走向,为进一步探究伦理准则的实践应用提供理论分析基础。
依托中国科学院自动化研究所“类脑认知智能实验室和人工智能伦理与治理研究中心”开发的LAIP——链接人工智能准则平台。选取该数据库中收录的92个2016—2022年之间发布并被明确逐项记录的代表性AI伦理准则,以此为数据样本来进行相关内容分析,准则基本情况统计如
发布主体类型 | 准则数量 |
---|---|
政府、政府间组织 | 35 |
学术界、非营利组织、非政府组织 | 30 |
行业组织 | 27 |
国家及区域(前5位) | 准则数量 |
美国 | 27 |
国际组织 | 15 |
中国 | 12 |
英国 | 7 |
日本 | 5 |
加拿大 | 5 |
发布时间阶段 | 准则数量 |
2016-2017 | 18 |
2018-2019 | 56 |
2020-2022 | 18 |
研究基于Python语言构建整体模型对准则文本进行量化分析。一方面,通过抽取阶段关键词汇挖掘全球范围内人工智能伦理准则在不同阶段的关注重点,并绘制可视化词云图,更直观地判断阶段差异;另一方面,提取准则主题,进一步理解人工智能伦理准则的内涵分布及演进方向,具体研究过程如

图1 研究过程
Fig.1 Research process
词频逆文档频率TF‒IDF(term frequency-inverse document frequency)算法,在文本挖掘中广泛应用于衡量词汇对文本的重要程度。该方法综合考虑词汇的频数和在文本中的重要程度,提取具有显著差异的关键词汇,以更好地代表准则文本中的信息。特定词汇的重要性与其在该文本中的出现次数成正比,与其在所有文本中的出现次数成反比。本文采用平滑后的IDF计算方法,词汇在一篇文本中的TF‒IDF权重计算为
式中:表示词汇在该文本中出现的次数;表示该文本总词汇数;表示总文本数;表示含有词汇的文本数。对TF‒IDF权重进行归一化处理后,每篇文本词汇权重之和等于1。计算候选词汇在准则文本中的TF‒IDF权重,得到权重较高的多个名词性质词汇,作为该准则文本的关键词汇,反映不同时期人工智能伦理准则着力点的变化过程。
隐含狄利克雷分布(Latent Dirichlet Allocation,LDA)模型,基于Dirichlet分布和贝叶斯算法提取文本所包含的潜在主题信息和主题的词汇分布。该模型考虑了主题概率分布的先验知识,认为准则内容围绕一个或多个主题展开,而主题由词汇的概率分布确定。对于某篇文本中的每一个词汇,需要从该文本的主题分布中随机选择一个主题,再从主题对应的词汇分布中随机选择一个词汇,重复该操作直至所有文档全部生成,最终求解获得准则文本的主题分布和主题的词汇分布,其原理如

图2 LDA模型
Fig.2 LDA Model

图3 AI伦理准则关键词统计(2016—2022)
Fig.3 Keywords statistics on AI ethical guidelines (2016—2022)
结合人工智能技术发展轨迹和本文搜集的数据特征,拟从初步探索(2016—2017),原则爆发(2018—2019)、实践应用(2020—2022)3个阶段来分析人工智能伦理准则的阶段性特征,如

图4 阶段AI准则关键词分析
Fig.4 Keywords analysis of each phase
从AI伦理风险议题被提出到各界纷纷提出或制定伦理准则并广泛寻求共识,再到探索把准则转化为实践的机制、做法、工具等,每个阶段的治理侧重点和准则表述存在差异。
首先,AI准则的制定密切围绕技术实体发展,“技术、算法、系统、数据”等关键词在3个阶段的权重都比较高,但经历了原则大爆发阶段后,准则逐步跳出技术系统,开始关注部署应用和社会影响,对风险的关注度逐渐提升。其次,进入实践应用阶段(2020—2022),考量伦理准则在实践中应用的权重在逐步提升,application(应用)在词云图中被重点凸显出来;从实践参与主体的角度来看,第1、2阶段较为笼统的谈及利益相关者作用的发挥,在第3阶段则强调actor(行动者)的实践行为;再次,在AI伦理准则发展的3个阶段中,法律一直没有被凸显出来,这意味着无论是从行为规制角度还是行为奖励的角度,都鲜少有将人工智能伦理规约确认为法律规范的实质性探讨。
通过对92个准则文本提取准则主题,参照LDA模型的困惑度曲线和主题含义确定准则核心主题的数量为5,对词汇内容进行概念化后归纳的主题类别名称为“通用性准则”、“行业发展准则”、“技术系统准则”、“制度干预准则”、“实践性准则”。各核心主题对应的部分代表性词汇如
核心主题 | 词 项 | 相关度 | 词 项 | 相关度 | 发布主体数量 |
---|---|---|---|---|---|
通用性准则 |
系统 数据 决策 技术 原则 |
0.055 42 0.027 79 0.015 54 0.015 51 0.015 43 |
人类福祉 发展 人权 使用权 隐私 |
0.011 78 0.011 45 0.011 26 0.010 94 0.010 03 |
a(18);b(21);c(18) |
行业发展准则 |
智能 权利 发展 可循环 保障 |
0.048 40 0.024 43 0.018 09 0.014 28 0.013 49 |
技术 安全 条例 数据 生命权 |
0.012 89 0.011 51 0.011 42 0.010 80 0.010 10 |
a (1);b(2);c(1) |
技术系统准则 |
发展 应用 产品 技术 权利 |
0.017 64 0.016 52 0.014 90 0.013 21 0.013 20 |
规则 服务 客户 数据 安全 |
0.012 95 0.012 27 0.010 99 0.010 14 0.008 87 |
a (4);b(3);c(5) |
制度干预准则 |
系统 使用者 数据 风险 注意 事项 |
0.039 63 0.037 53 0.020 68 0.020 34 0.018 70 |
研发人员 应用 部署者 准则 判断 责任 |
0.015 96 0.014 98 0.013 10 0.012 04 0.011 58 |
a (2);b(1);c(0) |
实践性准则 |
系统 开发 行动者 儿童 应用 |
0.025 21 0.020 35 0.020134 0.016 52 0.014 54 |
使用 代码 技术 机构 方法 |
0.013 16 0.011 12 0.011 04 0.010 14 0.008 49 |
a (10);b(3);c(1) |
注: a代表 政府和政府间组织; b代表Academia, NPO & NGO; c代表行业; a(18)代表由政府和政府间组织发布的通用性准则有18个
由
本文也从时间轴角度对这5个核心主题的阶段化分布做了可视化呈现,如

图5 核心主题的阶段化分布
Fig.5 Phased distribution of core themes
同时,本文选取准则发布数排名前五的国家(详见

图6 核心主题分布国别比较
Fig.6 Country comparison of core theme distribution
总体来看,全球范围内的代表性人工智能伦理准则一方面肯定了人工智能技术全领域应用给社会带来的巨大变革,另一方面也充分表达了对依托数据、算法和算力的AI技术应用的潜在伦理风险隐忧,并广泛寻求共识以实现规范发展。本文以同一年发布的准则中主题分布概率的算数平均值作为当年的主题强

图7 主题强度逐年演变趋势
Fig.7 Year-on-year trends in the evolution of the intensity of the theme
从准则的具体内容来看,这些伦理治理共识的演变呈现出6大趋势(如

图8 AI伦理共识的演变趋势
Fig.8 Trends in the evolution of AI ethical consensus
(1)由理解风险走向解决风险。世界各大经济体逐渐意识到AI技术快速迭代对社会的重塑效应及潜在问题,应对风险的紧迫感日益增强。
(2)由强调技术安全转向技术可信。2018年之后,内涵更为全面的“可信”价值逐渐发展为人工智能技术研发的引领性共识,除强调人工智能技术要“安全可控”外,“透明可释、数据保护、明确责任、多元包容”等可信特征也被认可。
(3)由关注伦理价值判断走向实操应用。人工智能伦理治理进一步转向实践层面,探索一致性、兼容性价值规范落地的可能。
(4)伦理干预由设计阶段拓展到全周期。在联合国教科文组织发布的《人工智能伦理问题建议书(2021)》中“AI系统的整个生命周期”出现频次多达51次,关于AI技术的治理阶段性的认识逐渐清晰和深入。
(5)治理主体由单一扩展到多元。相关领域的学术机构、国际组织、行业协会、大型科技公司与政府共同作为治理主体,探讨可信AI实践的可能。
(6)治理领域由宽泛趋于具体。从2020年开始,在对风险认知逐渐清晰的基础上,针对军用、情报、政府推广等具体领域的指引原则和具体标准开始实施,AI伦理治理的领域在不断聚焦。
综上所述,人工智能伦理治理共识从“风险认知、技术发展、治理导向、干预周期、治理主体、治理领域”等多个维度都渐渐指向了“实践”。AI伦理准则虽已达到一定体量,也随着技术成熟度提升、应用场景具体化及风险认知科学化不断演变,并在全球范围内形成了若干关键共识,期望通过关键共识及规范要求的实施来合理控制风险。但是,近年来业界及学术界都指出了伦理准则落地难的问题,将伦理价值观纳入当前的AI治理框架还需克服诸多挑战。
现阶段,关于人工智能伦理治理的讨论大多是通过关注关键准则来实现的,但也有学者指出AI伦理准则间存在冲突、重叠及缺失,归属领域或参与者不清晰,甚至存在实质性分
结合上文聚合出的“通用性准则、行业发展准则、技术系统准则、制度干预准则、实践性准则”5类核心主题,本文试图从组织、技术和制度3个层面来分析关键核心原则的关系,并探究实践困境,如

图9 AI核心伦理原则关系及实践困境
Fig.9 AI core ethical principle relationship and practice dilemma
技术层面指向“技术系统准则”,结合关键词项相关度,选取“透明性、可预测性和公平性”作为核心原则。算法与数据的透明性既涉及AI技术本身、也涉及AI系统开发行为,可预测性则可看作是透明度的一个子
而相关研究表明,现有的人工智能伦理准则并不能完全在实践中被采
人工智能伦理准则的出台为可信AI实践提供了探索的起点,但准则的可操作性受到多重因素影响。首先,伦理准则不是现成的方法,在实践中运用准则需要进行额外的工作,如开发关键领域的治理性技术和工具、形成组织内部的管理制度、提升实践能力等等,并要尽可能让伦理准则对技术开发者、部署应用者及产品使用者都更实用,而针对道德困境,通过直接设计数学函数为伦理规则和价值观建模很
对于准则中提到的风险问题,很难评估现实努力在多大程度上实现了既定目标,或者是否存在相互矛盾的可
企业是可信AI实践的主体,人工智能伦理准则要与企业的技术研发活动、产品开发及部署应用环节相对应,要与企业文化相一致,并在企业成员之间有效内化,伦理准则的实施还需要企业组织制度的保障。企业以盈利为导向的生存守则与为人类谋福祉的伦理准则之间存在逻辑冲突,使得私营部门在AI伦理领域的参与受到了质疑。企业参与制定伦理准则,可能仅是虚假信号,旨在推迟或完全避开监
两办印发的《关于加强科技伦理治理的意见》指出,‘十四五’期间,重点加强生命科学、医学、人工智能等领域的科技伦理立法研究,及时推动将重要的科技伦理规范上升为国家法律法规。这一意见聚焦新兴技术的发展对传统伦理观念和现行法律制度带来的深刻影响和冲击,提出了整体性治理要求。从学理上来说,法律与伦理在规范价值层次、调整范围、规范方式和强制程度等方面存在很大差异,但又是相互联系、相互影
在新兴前沿技术进入发展快车道并广泛渗透的背景之下,科技伦理准则为科技伦理治理框架的搭建提供了顶层价值,为合理控制风险提供了重要指引,成为引导科技伦理治理技术生态、组织生态及制度生态构建的软体系,但准则的实践适用性却引起广泛争论。本文以人工智能伦理准则为切入口,选取全球范围内代表性伦理准则,利用文本计量的方法,瞄准准则发展的时间轴,完成了准则关键词的阶段对比差异分析、准则核心主题的聚合体系分析,进而总结了世界范围内人工智能治理共识的6大演变趋势,实践导向被凸显出来。
人工智能技术内生和应用外生的伦理风险具有明显的特殊性,其负面效应无法立即显现且难以直接量化,风险来源较为复杂,智能治理经验普遍缺乏。伦理准则对AI技术研发及应用的行为指导和规约还未能对接,伦理准则与制度层面的立法、立规还不能有效衔接,伦理治理要求与企业主体可信AI实践之间还存在偏差。本文从组织、技术及制度三个层面分析了人工智能伦理准则中关键核心原则的关系,并进一步探讨了人工智能伦理准则的实践困境。
对于技术层面存在的“准则可操作性受限”及“准则考量要素不同质”的实践困境,其症结在于准则中所规定的规范性目标缺乏实际影响,因而要通过改进或补充准则以提升有效性。可以尝试从抽象的伦理价值和原则中推导出具体的技术实现内涵,列出问题清单,进而补充更详细的技术解释,将开发、实施和使用AI系统的实践与伦理所设定的价值观和原则关联起来。
对于组织层面存在的“伦理洗白”可能,要将伦理准则与人工智能企业的技术研发活动、产品开发及部署应用环节对应起来,可尝试在可信AI的关键实践中系统定义符合伦理的设计方法和框架,并通过组织制度和流程再造予以固化,以填补AI准则与其在应用实践之间的差距。要推进组织全员化的系统伦理教育,将伦理规范有效内化并融入企业文化。打破AI研发的封闭环境,人工智能企业要与公众务实沟通AI技术及产品可信的边界,重视用户同意、隐私及透明度。推动人工智能行业自律并提倡合作共建,实施政府优先采购导向,奖励并宣传典型实践案例,鼓励行业可信AI实践的发展。
对于制度层面存在的“准则与法律转化”困境,政产学研各界要深刻意识到,相较于具有社会指向、影响范围大且发挥“底线规定”功能的法律来说,伦理具有鲜明的“非强制性、非约束性”特征,会根据不同技术发展阶段、不同群体的认知波动而不断动态演进,发挥着“高线锚定”功能,主要依托各利益相关主体自愿、无约束力的合作行为且没有具体的执行机制,二者的转化需要一定的条件,只能做到相对同化,适度转化,可逐步建立相互补充的治理框架。
作者贡献声明
贾婷:设计研究框架;文献梳理;数据整理分析;论文撰写;图表绘制;论文修订;
陈强:提出研究选题;明确总体研究目标;完成理论基础搭建及概念辨析;协调研究过程;
沈天添:理论模型推导;数据处理;数据分析;论文撰写。
参考文献
WU W, HUANG T, GONG K. Ethical principles and governance technology development of AI in China[J]. Engineering, 2020, 6(3): 302. [百度学术]
MCNAMARA A , SMITH J , MURPHY H E . Does ACM's code of ethics change ethical decision making in software development?[C]// the 2018 26th ACM Joint Meeting(ESEC/FSE). [S.L]: Association for Computing Machinery, 2018: 729–733. [百度学术]
BENKLER Y. Don’t let industry write the rules for AI[J]. Nature, 2019, 569(7755): 161. [百度学术]
贾开, 薛澜. 人工智能伦理问题与安全风险治理的全球比较与中国实践[J]. 公共管理评论, 2021, 3(1): 122. [百度学术]
JIA K, XUE L.Governance of ethical challenges and safety risks of artificial intelligence: global comparisons and practice in China[J]. China Public Administration Review, 2021, 3(1) : 122. [百度学术]
中国科学院自动化研究所.LAIP-链接人工智能准则平台[EB/OL].[2023-01-02]. https://www.linking-ai-principles.org/ [百度学术]
Institute of Automation, Chinese Academy of Sciences. LAIP-linking artificial intelligence principles platform [EB/OL].[2023-01-02]. https://www.linking-ai-principles.org/. [百度学术]
陈小平.人工智能伦理导引[M].合肥:中国科学技术大学出版社,2021. [百度学术]
CHEN X P. Ethical guidance on artificial intelligence[M]. Hefei: University of Science and Technology of China Press,2021. [百度学术]
杨慧,杨建林.融合LDA模型的政策文本量化分析——基于国际气候领域的实证[J].现代情报,2016,36(5):71. [百度学术]
YANG H, YANG J L. Quantitative analysis of policy text merged with LDA model based on the field of international climate as demonstration[J]. Journal of Modern Information, 2016,36(5):71. [百度学术]
VAKKURI V, KEMELL K K, KULTANEN J, et al. The current state of industrial practice in artificial intelligence ethics[J]. IEEE Software, 2020, 37(4): 50. [百度学术]
KHAN A A, BADSHAH S, LIANG P, et al. Ethics of AI:a systematic literature review of principles and challenges[C]//The International Conference on Evaluation and Assessment in Software Engineering . Gothenburg Sweden: Association for Computing Machinery, 2022: 383-392. [百度学术]
VAKKURI V, KEMELL K K, TOLVANEN J, et al. How do software companies deal with artificial intelligence ethics? a gap analysis[C]//The International Conference on Evaluation and Assessment in Software Engineering. Gothenburg Sweden: Association for Computing Machinery, 2022: 100-109. [百度学术]
MITTELSTADT B. Principles alone cannot guarantee ethical AI[J]. Nature Machine Intelligence,2019,1(11):501 . [百度学术]