将伦理原则与算法方法相结合:一种评估人工智能系统可信度的替代方法

《Frontiers in Computer Science》:Bridging ethical principles and algorithmic methods: an alternative approach for assessing trustworthiness in AI systems

【字体: 时间:2025年09月26日 来源:Frontiers in Computer Science 2.7

编辑推荐:

  本文提出一种结合PageRank和TrustRank算法的可信AI评估方法,通过构建有向图模型将伦理要求与系统组件关联,以减少主观评估的偏差。实验表明,该方法能有效量化信任度,并揭示系统内信任传播路径,为多维度评估提供依据。

  人工智能(AI)技术体现了人类制造的复杂挑战,尤其是在其广泛整合到社会并产生深远影响的背景下,揭示了潜在的益处及其负面后果。尽管其他技术也可能带来重大风险,但AI的广泛覆盖使其对社会的影响尤为深远。AI系统的复杂性与强大能力相结合,可能导致依赖于超出直接人类监督或理解范围的技术。为缓解由此产生的风险,已开发出一些理论工具和指南,同时也有技术工具旨在保障可信AI。这些指南以更全面的视角看待问题,但未能提供量化可信度的具体技术。相反,虽然技术工具在实现量化方面表现更优,但它们往往只关注可信AI的特定方面,缺乏整体视角。本文旨在介绍一种评估方法,该方法将可信AI的伦理要素与PageRank和TrustRank的算法过程相结合。目标是建立一个评估框架,通过引入算法标准来减少现有自我评估技术中固有的主观性。应用我们的方法表明,通过提供定量见解并考虑相关指南的理论内容,可以实现对AI系统整体可信度的评估。

AI系统的复杂性和透明度的降低使得人类对其行为的理解和指导能力减弱,从而增加了无意中与人类原则(如公平、透明和问责)相冲突的风险。这一情况促使政治机构开始转向理解和建立监管规则。2018年,欧盟(EU)提出了可信AI的伦理指南,旨在规范和促进AI系统的开发与运行。2021年,美国政府问责办公室(GAO)发布了AI问责与负责任使用的框架,明确了确保AI相关方面的关键实践。除了机构框架,可信AI的研究活动也在持续增加。

近年来,组织和学术界对可信AI系统的评估框架和方法做出了大量努力,旨在确保这些技术可靠、透明并符合伦理标准。然而,目前的研究显示,可信AI的机构框架已经趋于饱和。该领域的一个主要问题是理论框架与实践方法之间的鸿沟。过度强调理论框架而忽视实践方法可能导致某些社区从伦理漂白的角度看待可信AI问题。伦理漂白是指组织表面上承诺遵循伦理标准,但实际上并未采取任何实质性的行动。因此,如果要从根本上解决问题,必须努力弥合理论与实践之间的差距。

为了解决这一差距,我们从不同的角度探讨了AI系统可信度评估的概念。我们旨在克服AI自我评估过程的主观性,提出了一种更为客观的评估方法。这种方法利用现有的算法方法,这些方法本身包含探索性维度,通过分析其相互关系和依赖性,可以推导出AI系统组件的洞察。具体来说,我们探索了链接分析算法,如PageRank和TrustRank,以揭示不同可信AI要求、关键方面和AI系统组件的信任程度。我们提出的方法不仅评估AI系统的可信度,还提供了关于信任如何在系统各个组件之间传播的见解,这是现有研究中相对较少探讨的领域。因此,我们利用了已建立的、非算法的可信AI框架,如ALTAI,并将其与链接分析算法结合,以探索一种新的AI系统可信度评估方法。

本文的结构首先在第二部分进行文献综述,总结系统性和半系统性研究的发现,以识别可信AI的基本伦理原则。第二部分还探讨了当前可信AI的评估方法和工具,包括理论框架和技术解决方案。第三部分描述了本研究采用的方法论,包括范围综述和算法框架设计。第四部分介绍了我们对AI系统可信度的算法评估方法,利用链接分析技术如PageRank和TrustRank,并通过假设案例场景说明其应用,提供初步证据证明其在补充现有框架方面的潜力。最后,第五部分总结了本文的关键发现、局限性以及未来研究的前景。

在文献综述中,我们首先对AI伦理原则进行了元分析。AI的伦理及其社会影响已经引起广泛关注,许多组织提出了政策框架和指南。每个框架都包含不同的AI伦理原则,这些原则反映了对当前和未来AI策略的独特视角。AI伦理指南旨在向立法者表明,科学和工业的内部自我治理已经足够,无需特定法律来减轻潜在的技术风险和消除滥用场景。值得注意的是,AI伦理原则在无数AI伦理指南中被提出和语境化,这些指南为AI系统的开发者、用户、政策制定者和其他利益相关者提供伦理方向,旨在最大化潜在利益,同时减少潜在危害。

为了更好地理解这些原则,我们进行了元分析,整合了系统性和半系统性文献综述的结果。其中,Floridi等人(2018)是最早进行系统性文献综述的研究之一,他们评估了从2017到2018年间的六份文件,得出47个原则,并归纳出五个高级原则(益处、无害、自主、公正、可解释性)。可解释性原则是作者为结合可理解性和问责而添加的。Zeng等人(2018)从社会实体如学术界、非营利组织和政府等收集了27项AI原则提案。从语义角度出发,他们提出了手动选择的核心术语关键词,包括问责、隐私、公平、人性、协作、分享、透明度、安全、安全、AGI/ASI(人工通用/超级智能)。Jobin等人(2019)进行了系统性的范围综述,分析了包含软法或非法律规范的现有文件,特别识别了84份非重复文件,揭示了围绕五个伦理原则(透明度、公正与公平、无害、责任和隐私)的全球趋同。

在当前十年,Fjeld等人(2020)分析了36份重要的AI原则文件,以识别未来AI技术讨论中的趋势和基本要素。他们确定了47项原则,可以分为八个主题:问责、隐私、公平与非歧视、安全与安全、透明度与可解释性、技术控制、专业责任、促进人类价值观。他们还指出,这些主题作为基本要求,表达了这些概念和伦理原则的重要性。Hagendorff(2020)进行了一项半系统性的文献综述,比较了22项指南,发现问责、公平和隐私原则在所有指南中共同出现约80%,并确定了22项伦理原则。他指出,这三个核心方面构成了构建和使用AI系统的最低要求。Franzke(2022)研究了总共70项AI伦理指南,分析结果表明,主导原则是透明度、隐私和问责。她指出,AI伦理指南大多忽略了如何将伦理原则转化为技术使用的重要问题。Khan等人(2022)进行了一项系统性文献综述,揭示了围绕22项伦理原则的全球趋同。他们指出,透明度、隐私、问责和公平是常见的AI伦理原则。他们强调了在现实条件中实施指南的显著实践挑战,提到了缺乏连接原则和实践的工具或框架。

Attard-Frost等人(2023)集中于四个先验原则,他们将其称为F.A.S.T.,即公平、问责、可持续性和透明度,分析了47项AI伦理指南。Corrêa等人(2023)考虑了200项AI指南,识别了17项在相应政策和指南中普遍存在的原则。这些原则中,基于引用指数排名前五的与Jobin等人(2019)和Fjeld等人(2020)所识别的原则相似。Laine等人(2024)进行了系统性文献综述,以理解基于伦理的AI审计中的伦理原则和利益相关者。从110项研究样本中,他们进行了反向引用追踪,最终评估了93篇关于基于伦理的AI审计的文章。结果显示,将54项与伦理相关的术语分组为八个原则:公正与公平、透明度、无害、责任、隐私、信任、益处、自由与自主。作者通过添加三个额外原则(可持续性、尊严和团结)来增强全面性,尽管没有研究明确提到这些原则。

在文献综述中,我们识别了系统性和半系统性文献综述中达成共识的原则。我们选择了图1中显示的七个最高频率的原则,以评估它们与欧盟指南中提出的七个AI HLEG要求的一致性。表2展示了元分析结果与欧盟关于可信AI要求的重叠。可以看出,ALTAI的要求被包含在元分析中得出的七个最重要的原则中。例如,“人类代理与监督”与“人类技术控制/自主性”原则一致,而“技术稳健性与安全性”则对应“安全性/安全/无害”原则。同样,“数据隐私与治理”对应“隐私”原则,“透明度”与“透明度/可解释性”一致。此外,“多样性、非歧视与公平”与“公平/正义”概念相关,“社会与环境福祉”则与“人性/益处/可持续性”相关。最后,“问责/可解释性”原则涵盖了“问责”要求。虽然“责任/专业责任”是元分析中识别出的七个最高得分原则之一,但它并不属于AI HLEG的要求。在本文的背景下,我们依赖于AI HLEG提出的七个要求,因为它们与我们的元分析结果有明确的一致性。

这些理论要求构成了我们基于图的框架的基础,其中每个要求都代表图中的一个节点或一组节点。这种结构使得应用链接分析算法成为可能,从而建模和量化AI系统概念世界中的信任关系。通过这种方式,我们能够以更系统和可重复的方式评估AI系统的信任程度。

在评估可信AI的方法和工具方面,我们注意到理论工具和框架的重要性日益增加。其中,最早和最广泛认可的框架之一是ALTAI,由AI HLEG开发。ALTAI是一个自我评估工具,为评估AI系统与伦理指南的一致性提供了一个结构化和实用的方法。该框架为可信AI的基本支柱提供了指导。通过列举七个关键要求,它强调了组织必须解决的必要方面,以确保其AI系统是可信的。

此外,OECD在2019年发布了其AI原则,为促进创新、可持续性和对社会有益的AI系统提供了国际协议的基础。为了建立不同司法管辖区之间的全球互操作性基础,各国采用OECD AI原则和相关工具制定政策并建立AI风险框架。

世界经合组织(WEF)也在2022年提出了其框架,强调在整个AI生命周期中嵌入伦理考虑,以建立公众信任并确保全球影响。论坛的信任框架展示了诸如网络安全、隐私、透明度、可纠正性、可审计性、公平性、互操作性和安全等关键原则如何增强对技术和开发这些技术的组织的信任。配套报告提供了结构化的框架和可操作的路线图,以促进技术系统开发和应用中的可信度。

同样,MITRE在2023年开发了AI成熟度模型和组织评估工具指南,为组织提供了一种结构化的方法,以评估其AI系统在治理、风险管理和运营效果等维度上的成熟度。这一评估工具旨在将成熟度模型具体化,为组织提供有价值的见解和清晰理解,以支持AI技术的开发和进步。

此外,国家标准化技术研究院(NIST)于2023年发布了其AI风险管理框架,特别强调风险缓解和通过稳健治理实践促进可靠AI成果。该框架的目的是为组织提供指导,以管理AI风险并促进可信AI的开发和使用,同时描述了AI技术的潜在益处和风险。

与此同时,各种专门的工具也已开发出来,以量化和解决AI可信度的关键维度。例如,针对公平性,AIF360和scikit-lego等工具提供了强大的机制,用于识别、量化和减轻数据集和机器学习模型中的偏见。这些工具在促进公平AI系统方面发挥着关键作用,通过解决由于数据偏斜或不完整而可能产生的不平等。

关于稳健性,框架如对抗性稳健工具箱(ART)和secml提供了先进的能力,以评估AI系统对对抗性攻击的抵抗力。这些工具对于确保AI系统在恶意或不可预见的扰动下仍能可靠运行至关重要。通过模拟对抗性场景,这些框架有助于提高系统韧性并建立用户对实际应用中的信任。

在解释性方面,工具如AIX360、Captum和secml在提高AI模型可解释性方面至关重要。Captum支持PyTorch模型的广泛梯度和扰动基于归因算法,允许在图像、文本等多模态数据中进行可解释性分析,支持主层和内部层的归因。这些工具使利益相关者能够理解模型如何得出预测,从而隐含地确保与透明度和问责等要求相关的方面。此外,它们还包含覆盖解释模式不同维度的算法以及代理解释指标。

AI可信度的另一个重要方面是不确定性量化,由工具如UQ360来处理。该工具提供了测量和管理AI预测信心的方法,使决策者能够合理评估模型输出的可靠性。此外,UQ360还提供了一整套工具,以简化和增强AI应用开发生命周期中不确定性量化、评估、改进和沟通的实践。它还促进了对不确定性与其他可信AI方面(如公平性和透明度)之间关系的深入探索,通过分享前沿研究和教育资源。

在支持性能评估和可重复性方面,TorchMetrics提供了标准化和硬件加速的库,用于计算PyTorch中的广泛机器学习指标,使跨任务、跨领域和分布式环境的评估保持一致。为了实现多维度的全面信任评估,开发了诸如HELM等工具,该工具实施了涵盖准确率、公平性、稳健性、校准等的广泛多指标评估协议,帮助在标准化、场景丰富的条件下基准语言模型。

值得注意的是,开发工具以整合多个AI可信度要求的评估方法的努力仍在继续。致力于追求更全面解决方案的承诺代表了应对可信AI挑战和实现其策略的非常乐观的一面。

根据目前审查的工具,评估可信AI的方法通常分为两大类。第一类是基于伦理原则的工具,它们提供指导,说明如何在AI系统生命周期中整合相关技术的积极属性,同时减轻其潜在负面影响。这些工具采用整体视角,考虑AI系统的技术和社交维度,尽管它们通常缺乏精确量化的机制。第二类是编程框架和技术工具包,它们使用算法和指标来识别和评估AI系统的特定特征。虽然这些实用工具在量化某些可信AI方面表现出色,但它们往往专注于狭窄的信任维度。尽管两类工具在不同程度上包含自我评估方法,但这些工具和方法在评估过程中引入了主观性。我们提出的方法通过结合算法技术,减少了自我评估的主观性,同时确保其操作基于由AI HLEG伦理要求定义的定性特征。

在方法论部分,我们首先进行了范围综述和元分析,以探索可信AI背后的伦理原则。我们对现有文献进行了综述,旨在识别系统性和半系统性综述,这些综述在广泛的跨学科背景下探讨了这些原则。我们的主要目标是综合超越特定应用领域的伦理原则,为进一步研究提供全面的基础。

我们开始全面回顾有关AI伦理的现有文献,关注那些在一般层面上研究伦理原则的研究。然而,我们注意到许多结果侧重于特定应用,如教育和医疗,而不是一般层面的伦理原则。为了确保范围与我们的目标一致,我们优先考虑了具有跨学科重点的研究,排除了那些与特定领域紧密相关的研究。在这一基础上,我们采用了有针对性的搜索策略,以补充我们的初步发现。

在此过程中,我们注意到我们的发现与Ziouvelou等人(2024)的元综述结果之间存在显著的一致性,这可能不仅是因为两项研究之间的时间框架相对较短,还因为两者在关键研究问题上的重叠。他们的工作为我们提供了一个有价值的参考点,促使我们重新审视并扩展他们的数据集。这涉及应用更新的纳入和排除标准,以确保我们的分析的相关性和时效性。具体来说,我们排除了他们原始数据集中的一项实证研究,因为它不符合系统性或半系统性综述的标准。此外,我们还纳入了一项2024年发表的新综述,以扩展分析的时间范围。这些步骤确保我们的综述涵盖了最新的、相关文献。

范围综述提供了一组论文,我们利用这些论文进行了元分析,提供了一个框架,用于在不同背景下识别和综合伦理原则。从该综述中得出的见解构成了我们算法方法的基础,确保其符合可信AI的要求。本质上,所采用的方法论方法使我们能够将算法方法、PageRank和TrustRank整合到这一理论框架中。

基于范围综述和元分析得出的伦理基础,我们接下来概述了形成本文核心贡献的算法框架的方法设计。这一步骤的动机是通过算法标准来补充现有自我评估技术的主观性,从而实现更系统和可重复的AI系统评估。在这一方法设计中,我们将可信AI的七个要求(如ALTAI框架中定义的)转化为一个有向图的结构。每个要求被分解为构成方面,然后与正在研究的AI系统的特定组件相关联。通过这种方式,抽象的伦理维度成为网络中的具体节点,使它们的相互依赖和依赖关系能够明确表示。

为了分析这一结构,我们采用了两种已建立的链接分析算法,即PageRank和TrustRank。PageRank通过分析节点之间的相互引用,评估重要性。TrustRank则通过从一组预定义的受信任节点传播信任分数,扩展了这一过程。将这些算法应用于图中,为我们提供了一种探索信任如何在AI系统内传播以及哪些组件变得关键或脆弱的方法。

最后,我们考虑了两种互补的视角:一种是从高级要求开始,向系统组件传播信任的自上而下方法;另一种是从组件开始,将信任分数向上汇总到整体要求的自下而上方法。这两种视角为同时研究AI信任度的细粒度和系统维度提供了方法论基础。这种算法设计并不旨在取代定性评估或人类监督,而是提供一种结构化的、更少主观的方法,以量化系统内的关系。第四部分详细阐述了这一框架的实施,通过假设案例场景说明其应用。

在AI信任和信任度的概念基础部分,我们注意到信任度和信任的概念是多维的,可以根据不同的视角理解。在AI的背景下,它指的是确保系统符合其陈述要求的框架。它确保用户和利益相关者的期望以可验证的方式得到满足。信任度的概念基础在于信任本身。Kaur等人(2022)指出,社会学家将信任视为关系性的,心理学家将其视为认知性的,而经济学家则将其视为计算性的。鉴于这一区别的微妙性,以及有时在更技术性或功能驱动的方法中被忽视,有必要简要探讨信任和信任度的各种维度。

在定义问题方面,经济学家倾向于将信任简化为计算期望或制度保证,将信任视为一种理性的风险承担形式。心理学家则关注信任者内部的认知模型和被信任者的感知属性。社会学家可能将信任视为社会嵌入或制度结构的功能。在管理科学中,信任被定义为行为上的“一方愿意在涉及风险和不确定性的关系中变得脆弱”(Mayer等人,1995)。在信息学和人工智能的背景下,信任通常被理解为信任者愿意依赖系统在特定情境下执行特定行动或提供服务的意愿(Grandison和Sloman,2000)。这种依赖性由对系统能力、诚信、善意和可预测性的信念塑造(Siau和Wang,2018),并反映了在技术中介互动中接受脆弱性的准备。尽管这些定义在不同学科中有细微差别,但它们都指向信任意味着接受脆弱性,并基于对能力、诚信和可靠性的看法。

这些定义虽然在特定语境中是适当的,但往往隐含或显性地依赖于一个哲学核心。这些现象都与一定程度的期望、脆弱性和道德希望有关。这些概念在哲学讨论中得到了更详细的探讨。牛津哲学词典将信任定义为“对另一方期望良好表现的态度”(Blackburn,2016),将其与忠诚、诚实和守诺等价值观紧密联系在一起。哲学上,信任可以被理解为一个实体对另一个实体的信念,后者将按照预期行事。需要指出的是,信任是一种态度,而信任度是系统的一个属性,不是态度(McLeod等人,2023)。信任涉及一种依赖形式,但不仅仅是一种简单的依赖,还包括某些额外的因素(Hawley,2014;Durán和Pozzi,2025;Simion和Kelp,2023)。这个额外的因素通常涉及为什么信任者会依赖被信任者执行他们被信任的任务。

哲学定义特别有价值,因为它突出了信任的规范性维度。信任不仅是实用策略,更是一种道德承诺。信任某人或某物不仅仅是依赖,还意味着相信他们应当以可信的方式行事。这种规范性联系使得信任变得脆弱,其违反具有道德意义。尽管信任的定义在不同学科中有所差异,但哲学方法提供了一个丰富、统一和规范性的框架,该框架要么嵌入在其他理解中,要么为它们提供结构支持。哲学上的信任概念远不止抽象,它是跨学科工作的关键要素。

值得注意的是,这种道德和规范性维度也支撑了对人工智能和信息学的信任。在AI中的信任概念不仅包括功能表现或可靠性,还隐含了系统将按照人类期望和伦理标准行事的假设。因此,信任的哲学解释为理解AI的信任提供了概念基础,不仅作为理性的依赖,还作为一种道德参与形式。在此背景下,依赖指的是信任者对系统在特定环境中持续履行预期功能的依赖。重要的是,这种依赖不仅发生在人类信任者与技术系统之间,还可能发生在系统内部的组件之间,其中某个组件或伦理要求依赖于另一个组件以可信的方式运作,并符合更广泛的系统目标。然而,与传统软件不同,许多AI系统,特别是基于机器学习的系统,其算法直接来自数据,而不是明确的人类指令。这种对数据驱动学习的依赖强调了需要保障措施,以确保这些模型适合其用途、符合伦理,并且不受无意偏见的影响,因为其表现从根本上取决于训练数据的质量和代表性。认识到这一点,我们提出了一种算法方法,以量化这些依赖关系,旨在在已建立的伦理框架(如ALTAI)的定性背景下解释这一额外因素。

在算法方法部分,我们讨论了PageRank和TrustRank算法。上述定义有助于理解信任概念的理论背景,但它们缺乏明确的、可操作的指导,特别是在AI的实践中。1999年,Lawrence Page在描述PageRank算法时指出,该算法用于客观和机械地评估网站,他提到PageRank可以帮助用户决定一个网站是否可信(Page,1999)。这些话语促使我们更深入地研究当前算法及其扩展,称为TrustRank,提出这两种算法作为弥合可信AI理论与实践方法之间的差距的解决方案。

PageRank的核心是通过分析网页的入链来衡量网页的重要性。其核心思想是,如果许多其他重要的网页链接到它,那么该网页就是重要的(Brin和Page,1998;Niu等人,2018)。PageRank在搜索引擎中起着核心作用,因为它不仅反映了网页的流行度,还作为其可靠性和质量的粗略估计。这一原理基于这样的观点:被许多其他网页链接的页面通常被视为可靠和有价值的信息来源,因为这些链接的页面本身可能具有一定的权威性和可信度。然而,这种方法虽然捕捉了某种集体信任,但可能无法完全考虑到信任度的细微维度,如内容的准确性、意图或与伦理标准的一致性。PageRank的假设是,如果一个网页被其他重要网页指向,那么它就是重要的(Langville和Meyer,2006;Sharma等人,2020)。此外,PageRank并未明确定义或考虑信任。它假设链接本身表明了从一个网页到另一个网页的某种信心,而没有区分可信或不可信的链接,但考虑了流行度的重要性。该算法计算随机网页浏览者在遵循链接后到达特定网页的概率。从重要或高度链接的网页获得更多入链的网页将获得更高的PageRank分数(Brin和Page,1998)。此外,它需要对网页或图的链接结构进行完整分析。这包括对网页进行索引,以理解它们是如何相互链接的。当然,该算法也有其缺点,其中最重要的是它无法区分可信网页和垃圾网页。如果一个网页获得足够的入链,即使它本身是垃圾内容,也可能排名很高,因为该算法的方法不包含任何关于网站质量的知识(Gy?ngyi等人,2004),也不会显式惩罚不良行为。

在实际环境中定义信任度的挑战使得TrustRank算法成为一种相关的方法论方法。Gy?ngyi等人(2004)开发了TrustRank,将焦点转向信任度和可能的信任度。TrustRank的直觉是,一个具有高PageRank但与任何受信任网页没有关联的页面是可疑的(Giménez-García等人,2016),因此,它可能被认为不太可信。该算法的方法首先假设受信任的网站,由人类选择,不太可能链接到不可信或垃圾网站。因此,人类选择的种子节点结构了信任的定义。TrustRank从一组手动选择的种子页面开始,这些页面被认为是可信的。然后,它从这些种子页面传播信任分数到其他链接页面,设定这些页面离种子页面越近,其信任分数越高。这种方法的局限性与人类因素引入模型的主观性有关。正如电子邮件垃圾信息一样,判断一个页面或一组页面是否为垃圾信息是主观的。然而,我们对完全自主机制的存在持怀疑态度,因为信任本质上是人类中心的,并且涉及认知挑战。

在描述算法之后,考虑这些方法的算法过程同样重要。在算法1中,我们描述了PageRank的阶段,输入包括页面集合(P)、阻尼因子(α)和收敛阈值(ε)。阻尼因子防止算法陷入无限循环。这一因子的直觉是,较高的值意味着更多权重分配给链接结构,而较低的值则赋予随机跳跃更多权重。通常,该因子设置为0.85(Brin和Page,1998),意味着用户有85%的概率继续点击链接,而15%的概率停止并从随机页面重新开始,确保PageRank值收敛。收敛阈值决定了所需的准确度水平,较小的阈值意味着更精确的计算,但计算时间更长。

TrustRank作为PageRank的扩展,通常具有类似的结构。值得注意的是,衰减因子(α)的直觉表明,较高的因子值赋予链接结构更多的权重,而较低的因子值则赋予种子页面初始信任更多的权重。此外,算法2展示了TrustRank的阶段。

在框架应用部分,我们讨论了基于图的AI系统信任度评估。在评估AI系统的信任度之前,理解其架构和组件是至关重要的。AI系统的组件可能因开发它的组织以及应用的性质和预期用途而有所不同。尽管不同的AI系统共享概念基础,但每个组织在开发其软件时,都会以不同的方式定义组件和结构。我们提出的算法方法假设,软件组件之间的依赖关系和相关框架(如ALTAI)的信任度要求已经定义。我们建议应用链接分析算法来评估AI系统组件的信任度。通过评估这些组件,可以确定AI系统在特定要求下的整体信任度。该方法论方法使我们能够研究信任度在系统内的传播以及组件之间的依赖关系。作为我们方法的概念基础,我们采用了ALTAI模式,它代表了第二部分中元分析的综合,因为它与该分析的内容和发现高度一致。图3显示了可信AI的要求及其各个方面的描述,如AI HLEG所述。这些要求和方面是随后提出的基于图的算法方法的一部分。

在图3中,我们展示了可信AI的要求及其方面。这些要求和方面是后续基于图的算法方法的组成部分。通过这种方式,我们可以确定AI系统的信任度,同时研究其各个组件如何满足特定要求。该方法论方法使我们能够探讨信任度在系统内的传播以及组件之间的依赖关系。作为我们方法的概念基础,我们采用了ALTAI模式,它代表了第二部分中元分析的综合,因为它与该分析的内容和发现高度一致。图3显示了可信AI的要求及其方面,如AI HLEG所述。这些要求和方面是后续提出的基于图的算法方法的一部分。

在自上而下的方法中,AI系统的组件可以从其结构中推导出来,并与数据、用户输入和系统输出相关联。此外,用户交互环境和系统影响的环境(虚拟或物理)可以作为识别与可信AI要求相关的各种组件的来源。因此,每个可信度要求的方面都假设与AI系统的某些组件相关联。基于这一逻辑,我们构建了一个有向图,将每个方面与相关组件连接起来。我们还注意到,方面和组件之间可能存在相互连接。图4展示了我们假设系统所代表的图的结构概述。它说明了在可信AI要求范围内,组件之间的连接。可以看出,系统表示的深度可以配置为包含多个层次。我们建议采用两层深度表示,包括以下类别/实体:

[要求Ri ? 要求方面Aj ? 要求组件Mw]。这种连接模式可以描述为自上而下的方法。换句话说,要求与各自的要求方面相连,而这些方面又与它们影响的AI系统组件相连。这一过程以从更一般的实体到更具体的实体的方式进行。由于PageRank和TrustRank算法对位于有向链接末端的节点赋予更高的分数,因此可以合理地假设,在自上而下的层次结构中位于较低层次的实体可能获得较高的分数,尤其是在TrustRank中。因此,上述方法提供了一种更全面的理解,即与要求方面组件相关的信任度。

在自下而上的方法中,我们考虑了另一种情况。这种方法的连接模式如下:

[要求组件Mw ? 要求方面Aj ? 要求Ri]。图5展示了这一情况的抽象表示。通过将PageRank和TrustRank算法应用于遵循自下而上方法(即从最具体到最一般)的图,我们可以获得更准确反映高层节点(如要求方面的节点)信任度的分数。此外,这种方法使我们能够确定要求的信任度,因为我们获得的要求方面更具有代表性。一个节点的高分数意味着它被期望以期望或预测的方式运行,这与我们之前讨论的关于信任度的哲学观点一致。应用自上而下的方法,或其相反,为解释这些分数作为图结构中实体预期性能的指标提供了一个框架。这种方法隐含地采用了信任度的哲学概念。本质上,我们的目标是通过算法方法来确定AI系统的信任度,其结果似乎也与之前提到的哲学观点相关。

需要指出的是,AI系统所代表的图中连接方向的选择对结果的解释有显著影响。正如之前提到的,在自上而下的方法中,较低层次的实体(即系统组件)预计会获得较高的分数。这使我们能够更清晰地评估AI系统组件的信任度,因为它提供了从较高层次实体到其对应较低层次实体的信任度传播的证据。相反,自下而上的方法显示出较高层次的实体(如AI信任度要求的方面)倾向于获得更高的分数。这使我们能够收集关于系统整体信任度的证据,特别是与社会影响等广泛方面相关的信任度要求。结论是,我们提出的算法方法通过分析嵌入其结构中的实体之间的相互依赖关系,能够确定AI系统的信任度水平。此外,它还提供了关于信任在系统中传播的见解,从而允许进行敏感性分析,以评估信任在AI系统中特定实体信任状态变化时的转变。

在结论部分,我们总结了本文的关键发现、局限性和未来研究的前景。本文展示了如何利用链接分析算法,如PageRank和TrustRank,作为探索AI系统信任度的补充技术。我们方法的一个关键步骤是将系统组件与特定的信任度要求相联系。ALTAI框架被用于识别这些要求,因为它与我们元分析的系统性和半系统性文献综述的结果有很强的一致性。AI系统被表示为一个图,边表示组件之间关于定义伦理标准的信任行为期望。

在此基础上,我们开发了一种探索方法,以弥合信任度的理论定义与算法表示之间的差距。更具体地说,我们提出,图中的有向连接不仅反映了功能依赖,还反映了规范性期望,这与哲学上信任作为一种由能力、可靠性和诚信塑造的依赖一致。因此,我们的框架整合了计算和概念维度:PageRank和TrustRank不仅仅是数学工具,而是信任更深层次模型的实例,该模型涵盖了操作和伦理期望。我们的结果表明,这些算法可以告诉我们关于AI信任度的两个核心方面。首先,它们揭示了某些组件如何依赖其他组件来实现预期行为。其次,它们展示了信任如何在系统中传播,帮助识别最可信的组件,这些组件对系统功能至关重要,以及那些相对不重要的组件。这种算法方法提供了一种更少主观的评估信任度的方法,从而减少了对纯定性或自我评估方法的依赖。

尽管如此,仍然存在一些局限性。从经验上看,缺乏关于实际AI系统架构的详细数据限制了我们图模型的准确性。从理论上讲,我们的分析仍然是静态的,没有考虑随时间变化的行为。此外,仅靠结构连接无法完全捕捉信任度的复杂和多维特征,这些特征通常涉及情境敏感、伦理和以人类为中心的因素。未来的工作应专注于整合动态系统行为、更详细的架构数据以及来自社会技术和社会跨学科方法的见解,以促进AI信任度评估的全面和严谨。此外,需要一个全面的概念模型或详细记录的目录,以捕捉用例并交叉引用这些见解,为理解和对齐系统设计与现实情境提供结构化基础。通过这种探索方法,我们可以朝着更全面和严谨的AI信任度评估迈进,这些评估既技术基础又哲学启发。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号