大型语言模型(LLMs)作为调解者:它们能否准确诊断冲突?
《ACM Journal on Computing and Sustainable Societies》:LLMs as Mediators: Can They Diagnose Conflicts Accurately?
【字体:
大
中
小
】
时间:2025年11月07日
来源:ACM Journal on Computing and Sustainable Societies
编辑推荐:
冲突调解需区分分歧源于因果(事实)或道德(价值观),误判可能导致僵局或冲突升级。研究测试GPT-3.5和GPT-4在情景中的诊断能力,发现两者均能区分但GPT-4更优,然而在道德错位情境下存在高估因果分歧、低估道德分歧的倾向。
摘要
冲突调解需要可靠地区分分歧的来源:是源于对事实(因果关系)的不同认知,还是源于对价值观(道德)的不同看法。误判的后果可能非常严重,尤其是在与可持续性和伦理管理相关的情境中。为了推动利用大型语言模型(LLMs)来调解争议性人类讨论的学术研究的发展,我们开发了一种冲突诊断能力测试,用于评估LLMs是否能够区分基于因果关系和道德分歧的分歧。我们通过一个小案例研究将该测试应用于OpenAI的GPT-3.5和GPT-4。研究发现,这两种LLMs对因果关系和评价性(道德)分歧的理解与人类相似,并且能够可靠地区分这两种类型的分歧,其中GPT-4的表现优于GPT-3.5。然而,与人类相比,这两种模型在存在道德不一致的情况下都倾向于高估因果分歧的程度,而低估道德分歧的程度。最后,我们讨论了使用LLMs调解冲突的潜在影响。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号