模拟共情:软法标准能否有效应对相关风险?

《IEEE Transactions on Technology and Society》:Emulated Empathy: Can Risks Be Countered by a Soft-Law Standard?

【字体: 时间:2025年11月21日 来源:IEEE Transactions on Technology and Society

编辑推荐:

  人工智能系统通过模拟共情识别、解读和回应人类情感状态,引发个人与社会层面的伦理争议,如操纵风险、内心生活商品化等。研究基于神经科学、心灵哲学与AI伦理,探讨IEEE P7014.1标准在规范人机共情合作中的作用,提出软法与监管结合的主动治理策略以平衡技术发展与人本价值。

  

摘要:

随着人工智能系统越来越多地模仿共情能力——识别、解读、回应人类的情绪状态和心理背景,并且可能表现出真正关心他人的态度——关于这些发展对个人和社会的影响也随之产生。虽然模拟的共情能力可以提高系统的可用性、用户参与度和可访问性,但同时也引发了关于操纵行为、内心生活的商品化以及与现实脱节的担忧。这些问题在人工智能伴侣(AI companions)的背景下尤为突出。尽管人工智能系统在功能上可能具备共情的能力,但它们对人类共情的模仿也揭示了人类与计算形式之间的根本差异。本文结合神经科学、心灵哲学和人工智能伦理学的观点,探讨了这类系统是对人类社交关系的威胁,还是有可能增强这种关系。特别关注的是IEEE P7014.1标准,该标准为涉及模拟共情的人机协作制定了伦理考量和推荐实践。除了深化对模拟共情概念的理解外,本文还主张采取一种积极主动的治理方式,结合软法律和监管措施来减少危害、维护信任,并指导这一新兴领域中的负责任设计。

引言

具有共情能力的人工智能的兴起——即能够识别、解读和回应人类情绪及心理背景的技术——引发了关于其全球社会影响的重大伦理问题。由人工智能驱动的伴侣、助手和社交机器人越来越多地被设计成能够模仿人类的共情行为,但这种共情的本质与人类的共情存在根本差异。与基于身体体验和意义感知的人类共情不同,人工智能的模拟共情是基于计算模型、统计分析和概率模型的。如今,许多全球领先的科技公司都将人工智能共情视为促进人机交互的重要因素,从而提出了一种观点,即共情已经内化为人们与人工智能系统互动的一部分。那么,人类之间的真实联系是否因此受到威胁呢?为了解答这个问题,本文(1)概述了模拟共情的概念;(2)分析了这种技术可能对人类共情和人际关系的潜在威胁;(3)详细探讨了技术标准在引导具备共情能力的人工智能系统良性发展中的作用。其中,重点关注的是IEEE P7014.1标准,该标准为基于伙伴关系的人工智能系统中的模拟共情行为提供了伦理考量和推荐实践。作为该标准的工作组主席,我由IEEE技术社会影响标准委员会(SSIT Standards Committee)资助。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号