针对机器人行为的个性化因果解释

《Frontiers in Robotics and AI》:Personalized causal explanations of a robot’s behavior

【字体: 时间:2025年10月09日 来源:Frontiers in Robotics and AI 3.0

编辑推荐:

  本研究提出一种机器人生成个性化因果解释的框架,整合因果日志、社会角色识别和自然语言查询。通过Rasa识别用户意图及社会角色,从因果日志中提取事件因果关系,结合大语言模型(LLM)生成符合角色和查询的语言多样化的解释。实验表明,融合三者能获得最高满意度,验证了该方法在保持因果准确性的同时实现自然语言表达的个性化适配。

  在人类与机器人共存的环境中部署机器人,意味着它们必须能够在需要时向非专业用户解释自己的行为。为了满足这一需求,我们提出了一种框架,使机器人能够生成个性化的解释,该框架结合了因果关系结构、社会角色和自然语言查询。机器人事件被存储为因果对,形成因果日志。当用户提出自然语言查询时,系统使用机器学习技术从因果日志中识别匹配的因果条目,并确定查询者的社会角色。随后,生成一个初步解释,并由大型语言模型(LLM)进一步优化,以产生语言风格多样化的响应,这些响应不仅适应社会角色,还符合用户的查询内容。这种做法在保持因果和事实准确性的同时,也增加了语言表达的多样性,有助于提升用户对机器人的理解度和接受度。定性与定量实验表明,结合因果信息、社会角色和查询生成解释的方法得到了最广泛的认可。

机器人可解释性通常被认为是提升安全、用户体验、信任和效率的关键因素(Hellstr?m and Bensch, 2018)。能够通过语言解释其行为的机器人,例如在与人类互动时口头说明其动作和决策,对于某些敏感场景尤为重要,如老年护理或医疗辅助,其中缺乏信息或清晰度可能会导致身体或心理上的伤害。在相关研究中,解释和因果性是紧密相连的概念(Setchi et al., 2020)。Lewis在其开创性研究中将解释描述为“提供事件的因果历史”(Lewis, 1986)。早期的相关研究(Lindner and Olz, 2022;Chakraborti et al., 2017)往往关注于动作、效果及其技术原因,即“要解释什么”。然而,如果机器人与背景各异的人类互动,仅基于因果推理的解释可能并不足够。例如,在养老院中,与助行机器人互动的人可能包括居民、医疗人员、家庭成员或技术人员。因此,我们通过考虑提问者的社会角色以及提问本身,来增强解释的个性化,从而关注“如何解释”这一方面。

在本文中,我们提出了一个机器人生成个性化解释的框架。该框架在确保事实和因果正确性的前提下,利用大型语言模型(LLM)来个性化和多样化解释的语言表达。提供语言多样性对于与机器人定期互动的人类用户来说至关重要,因为重复的解释可能会导致单调感,降低用户的参与度。具体而言,机器人事件(如动作和任务)被存储在因果日志中,以因果对的形式组织。给定一个自然语言查询,系统使用机器学习技术从因果日志中提取所请求解释的机器人事件,并识别查询者的社会角色。随后,利用因果日志中与该事件相关的因果信息生成初步解释,再由LLM进行优化,以产生语言风格多样化的解释,这些解释根据社会角色和查询内容进行调整。这种初步解释基于因果日志中的事实数据,确保解释的准确性,而LLM则增加了语言的多样性。

为了评估我们的方法,我们进行了三个定性和定量实验。第一项实验探讨了在生成解释时结合因果信息、社会角色和查询的效果。专家和30名参与者评估了生成的解释质量,统计分析结果表明,结合因果信息、社会角色和原始查询生成的解释最受青睐。此外,实验还显示,次优的解释选项是仅包含因果结构和社会角色,而不是因果结构和查询的组合。这表明在因果解释中考虑社会角色具有重要作用。第二项实验验证了查询者社会角色识别的高准确性,第三项实验则展示了系统生成的解释与人工生成的解释之间的高语义相似性。本文的结构如下:第2节提供了相关工作的概述,第3节描述了生成解释的方法论,第4节展示了实验和结果,第5节讨论了挑战和局限性,第6节则总结了本文并提出了未来工作的方向。

在技术背景部分,我们首先回顾了关于解释的相关研究。人类天生倾向于构建解释,这一过程对于理解世界至关重要。解释有助于构建推理和概括的基础(Lombrozo, 2006)。根据Federer等人(2015)和Meyer与Schnell(2020)的观点,解释由两个关键元素组成:被解释的现象(explanandum)和解释本身(explanation)。更广泛地说,Norris等人(2005)将解释定义为“旨在使某事变得清晰、易懂或可理解的行为”。有效的解释必须具有意义,并且适应受众的能力和需求(Stefani和Tsaparlis, 2009)。同样,Tania Lombrozo认为解释是弥合他人理解事件的差距(Lombrozo, 2006)。这一过程本质上是认知的,涉及对问题的回答,这些问题通常以“为什么”形式呈现,且通常受到上下文的约束。解释的接收者通常不关心事件的单纯发生,而是更关注事件在特定情境下发生的原因,而非可能的替代或反事实情境。

关于解释的普遍理论已被探讨,但尚未解决,因为不同学科有不同的需求(Pitt, 2009)。例如,工程领域通常要求专业人士清楚地传达其决策和解决方案,这是其非技术能力的一部分(Kaplar等人,2021)。逆向工程则专注于理解“现有产品如何产生其整体功能的内在机制”(van Eck, 2015)。从技术角度来看,Pitt(2009)倡导建立技术解释的理论,以澄清工具的目的和功能。他指出,这样的解释必须参考工具所处的更大系统,因为其设计、功能或结构……“只能通过参考该系统来充分解释”(p. 861)。尽管科学解释旨在揭示“世界为何以特定方式运作”(p. 862),但技术解释则关注实际问题,如“这是如何运作的?”或“这个工具为何这样做?”。

在人类与机器人交互(HRI)中,机器人提供清晰且有意义的解释对于在关键任务中广泛接受机器人至关重要(Edmonds等人,2019)。Sakai和Nagai(2022)以及Chakraborti等人(2021)的研究表明,人与机器人之间的真正沟通不仅需要对命令或问题的基本理解,还需要机器人识别和解释人类的内部状态,并以人类能够理解的方式传达其自身的推理。机器人若能有效预测人类的需求并调整其行为,就必须具备推理人类意图并提供清晰、可操作的解释的能力。这种能力不仅有助于机器人与人类期望一致,还能建立信任。配备这种能力的机器人被称为可解释自主机器人(XARs)(Stange等人,2022;Sakai和Nagai,2022)。这一概念与可解释人工智能(XAI)相似,但有一个关键区别。虽然XAI旨在通过提供透明的决策理由来增强理解和控制,通常集中在数据驱动的决策上(Gj?rum等人,2023;Adadi和Berrada,2018),但XARs主要关注在共享、动态环境中解释其自主行为。正如Sakai和Nagai强调的那样,这涉及从数据驱动的可解释性向目标驱动的可解释性转变,机器人必须清晰地表达其行为背后的理由,以实现其目标(Sakai和Nagai,2022;Zakershahrak和Ghodratnama,2020)。这种关注对于促进有效的人机合作和信任至关重要。"可理解性"被建议为比"可解释性"更广泛的术语(Hellstr?m和Bensch,2018),它不仅涵盖了机器人的行为,还包括意图、欲望、知识、信念、情绪、感知、能力和限制等实体。此外,可理解性不仅可以通过口头解释实现,还可以通过其他模态,甚至通过机器人的实际动作和行为来实现。

在技术背景中,我们还探讨了社会角色识别。通常在确定同质语音段落中说话者的回合时,社会角色识别(SRR)旨在确定说话者的角色,该角色由说话者执行的任务和与之相关的任务目标来定义(Flemotomos等人,2019)。显然,为了解决SRR问题,必须识别出区分这些角色的模式。不同的提案在低层寻找这些模式,要么在音频文件中,要么在节奏和声音中(例如,面试者会使用更多的疑问词,而被面试者则不会)。其他作者同意语言通常包含更多信息来解决这个问题(Flemotomos等人,2019;Prasad等人,2022;Zuluaga-Gomez等人,2023),因此目标是利用词汇变化来区分角色。这两种集合的语音和词汇模式可以结合使用,在结合自动语音识别(ASR)和SRR的方法中(Blatt等人,2024)。无论如何,近年来传统解决方案已被深度学习取代。

在本研究中,我们通过将提问者和社会角色纳入生成更个性化的解释过程中,同时保持对机器人行为描述的因果正确性,对早期研究进行了扩展。正如我们的实验所显示的,这种方法产生了更受提问者欢迎的解释,并使机器人对交互人类更加可理解和有价值。我们还讨论了技术上的挑战和限制,包括伦理问题、对非结构化环境的适应性、计算资源的限制以及因果日志的创建和维护。此外,我们还提出了未来的研究方向,包括对不同社会角色和具体使用场景的偏好研究,以及探索音调、面部表情、着装规范和年龄等指标以进一步提升因果解释的个性化程度。我们相信,通过这些努力,可以推动可解释或可理解机器人的研究,使我们更接近实现无缝融入日常生活的社会智能机器人这一愿景。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号