当前位置:首页 > 今日动态 > 神经科学
  • 面向云微服务架构的可解释图集成学习在多变量时序异常检测中的创新研究

    随着云原生技术的快速发展,微服务架构因其可扩展性和维护性优势正迅速取代传统单体系统。然而,这种分布式架构的复杂性给系统稳定性保障带来了严峻挑战。在微服务环境中,单个节点的故障可能通过服务依赖链引发雪崩效应,因此及时准确地检测多维监控指标中的异常行为至关重要。传统基于阈值或统计过程控制的方法往往难以捕捉微服务间复杂的时空依赖关系,容易产生误报风暴。虽然深度学习模型在异常检测任务中表现出色,但其"黑箱"特性使得运维人员难以理解模型的决策逻辑,特别是在需要同时考虑时间维度和拓扑维度的解释场景下。针对这一难题,都柏林城市大学与华为爱尔兰研究中心的研究团队在《IEEE Transactions on C

    来源:IEEE Transactions on Cloud Computing

    时间:2025-11-22

  • 一种28纳米的Spiking Vision Transformer加速器,配备双路径稀疏计算核心和无EMA(Explicit Matrix Arithmetic)的自注意力引擎,专为具身智能应用设计

    摘要:具身智能(EAI)系统,如自主机器人和交互式代理,需要在动态环境中实时且高效地处理视觉数据。视觉变换器已成为处理EAI任务中视觉信息的核心模型。然而,它们面临一些挑战,例如较大的输入外部内存访问(EMA)和低效的自注意力计算。为了解决这些问题,我们提出了一种硬件和软件共同优化的解决方案。我们用脉冲视觉变换器替换了传统的视觉变换器,该变换器利用了脉冲神经网络(SNNs)的高输入稀疏性和脉冲变换器中的高效线性自注意力结构。我们进一步通过三个关键的硬件设计特性增强了这一解决方案:1) 双路径稀疏计算核心,支持在提出的分组式帧差分数据流中对差分输入和原始输入进行稀疏处理,将EMA降低了58%;2

    来源:IEEE Transactions on Circuits and Systems for Artificial Intelligence

    时间:2025-11-22

  • 用于心房颤动检测的低功耗柔性分类芯片

    摘要:本文介绍了一种完全集成的片上分类器,该分类器基于柔性基板,能够实时从心电图(ECG)信号中检测心房颤动(AFib)。ECG信号通过14位模数转换器(ADC)进行数字化处理,随后通过时域特征提取器提取特征。这些特征被送入一个基于开关电容技术的计算存储型、模拟式的三层人工神经网络(ANN)中进行分类。该测试芯片采用65纳米工艺制造,每次推理的功耗为58.3微焦耳,在Physionet数据集上的平均准确率超过99.5%;在亚利桑那州梅奥诊所进行的小规模前瞻性人体研究中的准确率为80%;而在梅奥诊所企业提供的Rochester数据集(大规模回顾性数据集)中的准确率为99.9%。

    来源:IEEE Transactions on Circuits and Systems for Artificial Intelligence

    时间:2025-11-22

  • 具有整体进化逼近能力的任意精度印刷式三进制神经网络

    摘要:印刷电子技术为那些需要灵活性、可拉伸性、贴合性以及极低制造成本的应用提供了有前景的替代方案。尽管印刷电子产品的特征尺寸较大,但印刷神经网络在满足特定应用需求方面仍受到了关注,尽管实现复杂电路仍然具有挑战性。本研究在印刷神经网络的分类准确性和面积效率之间架起了桥梁,涵盖了从模拟到数字接口(这一关键且耗电较大的环节)到数字分类器的整个处理-接近传感器系统的设计及协同优化过程。我们提出了一个自动化框架,用于设计具有任意输入精度的印刷型三值神经网络,该框架采用了多目标优化和整体逼近方法。我们的电路在面积上比现有的近似印刷神经网络性能提升了17倍,在功耗上平均降低了59倍,并且首次实现了在精度损失

    来源:IEEE Transactions on Circuits and Systems for Artificial Intelligence

    时间:2025-11-22

  • 基于FPGA的高性能贝叶斯神经网络推理加速器

    摘要:贝叶斯神经网络(BNNs)通过概率建模提供了强大的不确定性估计能力,但其极高的计算复杂性和资源消耗限制了其在边缘计算中的应用。在本文中,我们提出了一种基于FPGA的BNN推理加速器,该加速器优化了关键模块,包括权重生成和前向推理过程。通过结合流水线技术和分布式存储策略,我们的设计在计算效率和资源利用之间实现了平衡。在Xilinx ZYNQ7020平台上的实验结果表明,在100 MHz的时钟频率下,该加速器的单次推理延迟为0.05秒,相比CPU和GPU平台分别实现了254.8倍和6.2倍的加速效果,同时能耗效率比GPU高出28.4倍,并保持了98.4%的识别准确率。

    来源:IEEE Transactions on Circuits and Systems for Artificial Intelligence

    时间:2025-11-22

  • CIMNAS:一种面向内存感知计算的神经架构搜索联合框架

    摘要:为了在基于内存计算(Compute-In-Memory, CIM)的神经网络加速器中实现硬件效率和性能准确性的最大化,以应用于人工智能(AI)领域,对软件和硬件设计参数进行协同优化至关重要。由于参数数量庞大且相互依赖关系复杂,手动调优是不切实际的。为了有效地自动化基于CIM的神经网络加速器的设计和优化,可以应用基于硬件的神经架构搜索(Hardware-Aware Neural Architecture Search, HW-NAS)技术。本文介绍了CIMNAS,这是一个针对CIM架构的联合模型量化-硬件优化框架。CIMNAS同时搜索软件参数、量化策略以及广泛的硬件参数,涵盖了设备级、电路

    来源:IEEE Transactions on Circuits and Systems for Artificial Intelligence

    时间:2025-11-22

  • BnnRV:面向边缘RISC-V核心的贝叶斯神经网络权重采样硬件与软件协同优化

    在人工智能技术飞速发展的今天,神经网络(NN)已在图像分类、自然语言处理等领域取得突破性进展。然而,传统神经网络存在一个关键缺陷:它们无法评估自身预测的可靠性。这在自动驾驶、医疗诊断等安全关键场景中带来了巨大风险——模型可能会以高置信度给出完全错误的判断。贝叶斯神经网络(BNN)通过将权重和输出表示为概率分布,为解决这一问题提供了可行路径,使模型能够量化预测不确定性,为决策提供重要参考依据。但BNN的优势伴随着高昂的计算代价。由于其概率特性,每次推理需要进行多次前向传播,且每次前向传播中都需要从权重分布(通常是高斯分布)中采样,导致BNN的单次前向传播耗时比传统NN高出约12.16倍。这种计算

    来源:IEEE Transactions on Circuits and Systems for Artificial Intelligence

    时间:2025-11-22

  • 面向多种语义分析任务的图像压缩技术研究

    摘要:近年来,基于深度神经网络(DNN)的图像压缩方法在速率失真性能方面表现出优于传统编解码器的优势。然而,大多数现有的基于DNN的压缩方法仅在特定比特率下优化信号保真度以满足人类视觉感知的需求,而忽略了压缩比特流中语义信息的保留。这一局限性使得现有深度编解码器压缩的图像不适用于机器视觉应用。为了解决图像压缩与多种语义分析任务之间的差距,本文提出将自监督学习(SSL)与深度图像压缩相结合的方法,以学习通用的压缩表示形式,从而使多种计算机视觉任务能够从压缩域中进行语义分析。具体而言,设计了在比特率约束下的语义引导自监督学习机制,用于保留通用视觉特征的语义信息,并去除与语义分析无关的冗余内容。同时

    来源:IEEE Transactions on Broadcasting

    时间:2025-11-22

  • 基于贝叶斯深度学习的剩余使用寿命估计方法:采用斯坦因变分梯度下降算法

    摘要:在预测性维护中,一个关键任务是估计物理系统的剩余使用寿命。在过去的十年里,深度学习在预测性能方面显著改进了传统的基于模型和统计的方法。然而,为了最佳地规划维护操作,量化预测中的不确定性也非常重要。这个问题可以通过将标准的频率主义神经网络转换为贝叶斯神经网络来解决,后者天生能够提供估计值的置信区间。有多种方法可以用于训练这些模型。研究人员主要集中在参数化变分推断和基于采样的技术上,但这些技术分别存在近似能力有限和计算负担较大的问题。在这项工作中,我们使用了Stein变分梯度下降算法,这是一种最近提出的用于近似难以处理分布的算法,它克服了上述技术的缺点。特别是,我们通过对模拟的涡轮风扇发动机

    来源:IEEE Transactions on Automation Science and Engineering

    时间:2025-11-22

  • 在自适应识别环境下,采用固定和预定义时间控制方法来同步具有未知非线性参数的DMDNNs

    摘要:本文研究了在参数未知的情况下,如何通过自适应固定时间/预定时间控制来实现不连续多延迟神经网络(DMDNNs)的同步。为了解决DMDNNs中不确定因素的影响,将自适应控制技术引入控制器设计中。为了在固定的/预定的稳定时间内识别DMDNNs中状态依赖的切换参数,本文提出了一种固定时间/预定时间识别方法。在DMDNNs实现固定时间同步(FTS)的前提下,重新设计了自适应固定时间识别器和控制器,以在预定的稳定时间内实现同步并识别未知参数。通过李雅普诺夫稳定性方法,推导出了FTS和预定时间同步(PTS)下的相应同步准则。DMDNNs中的FTS/PTS及其参数识别技术在安全通信、模式识别等领域具有潜

    来源:IEEE Transactions on Automation Science and Engineering

    时间:2025-11-22

  • 利用径向基网络对机器人辅助手术中斜尖针偏转进行预测与分析

    摘要:本研究提出了一种与组织无关的神经网络方法,用于预测微创手术中的针头偏转情况。经皮干预的精确性在很大程度上取决于对针头偏转的准确估计。采用Xavier初始化的径向基函数网络(RBFN)来确保权重缩放的最优化,防止梯度消失或爆炸,并提高网络稳定性。此外,还使用了三角形学习率调度器来动态调整学习率,从而加快收敛速度并提升模型在不同插入深度下的泛化能力。RBFN的局部激活机制确保偏转预测主要受簇中心附近数据点的影响,有效捕捉了特定区域内的针头-组织相互作用动态。该模型将针头-组织相互作用表示为分布式力和锥尖处集中力的组合,后者是导致偏转的主要原因。通过十次实验(共90次插入)的验证,平均绝对误差

    来源:IEEE Transactions on Automation Science and Engineering

    时间:2025-11-22

  • 基于内存的事件触发式动态忆阻器延迟神经网络的非脆弱同步技术:解决执行器饱和问题及随机网络攻击

    摘要:本文首次研究了在执行器饱和和随机网络攻击的影响下,动态忆阻器延迟神经网络(DM-DNNs)的非脆弱同步问题。为了最小化通信开销,本文提出了一种新型的记忆驱动事件触发机制(METM),该机制结合了切换操作模式、利用历史数据以及动态可调阈值参数等功能。同时,针对执行器饱和和网络攻击等复杂控制环境中的不确定性,设计了一种非脆弱控制器。此外,还创新性地构建了一种在静止模式下不再要求正定性的循环函数。随后,本文给出了同步的一些新的充分条件及其控制器增益的联合设计算法。最后,通过数值示例验证了本文所得到的同步结果。

    来源:IEEE Transactions on Automation Science and Engineering

    时间:2025-11-22

  • 基于梯度模糊神经动力学的混合学习控制方法,用于在边界约束条件下控制未知结构的机器人操作器

    摘要:准确理解机械臂模型对于实现机器人应用中的有效跟踪控制至关重要。一旦无法获得机械臂的运动学模型,基于模型的方法可能无法成功完成所需的任务。为此,提出了一种混合学习控制框架,以提高模型精度和轨迹跟踪性能。该框架将梯度模糊神经动力学(GFND)与一个参数可变的预定义时间收敛项相结合。借助GFND,可以精确估计机械臂的雅可比矩阵,并采用模糊逻辑系统自适应地调整学习率。预定义时间框架的引入确保了机器人控制任务能够在规定的时间内完成,无论初始系统状态如何。为了在实际应用中遵守关节约束,设计了一个非线性映射函数,从而增强了机械臂实现指定控制目标的能力。通过全面的理论分析证明了所提算法的收敛性,并通过机

    来源:IEEE Transactions on Automation Science and Engineering

    时间:2025-11-22

  • 具有滞后特性的非严格反馈随机非线性时滞系统的自适应神经输出-反馈控制

    摘要:本文提出了一种自适应神经输出反馈控制器,用于一类具有未知类反作用力滞后特性的非严格反馈随机非线性时滞系统。首先,建立了一个状态观测器来估计未测量的状态;其次,利用适当的李雅普诺夫-克拉索夫斯基泛函来补偿未知的时滞项,并通过神经网络来逼近未知的非线性函数;最后,结合李雅普诺夫稳定性理论和反步技术构建了输出反馈自适应神经控制方案。研究表明,所设计的神经控制器能够确保闭环系统中的所有信号均满足4阶(或2阶)矩半全局一致最终有界(SGUUB)条件,并且跟踪误差能够收敛到原点附近的一个小范围内。文中通过两个示例进一步验证了所提方法的有效性。

    来源:IEEE/CAA Journal of Automatica Sinica

    时间:2025-11-22

  • 适用于具有预设性能和输入饱和条件的非线性开关系统的自适应神经DSC方法

    摘要:本文针对一类具有不确定严格反馈的非线性系统,提出了一种自适应神经动态表面控制方法,能够在任意切换条件下保证系统的瞬态和稳态性能。首先,通过采用预定的性能控制策略,可以确保系统达到预定的跟踪控制性能,同时消除了对初始误差的要求。其次,利用径向基函数(RBF)神经网络(NNs)来处理未知的非线性函数,并采用高斯误差函数来描述连续可微的不对称饱和模型;动态表面控制(DSC)技术则用于克服控制设计中固有的“复杂性爆炸”问题。最后,通过结合常用的李雅普诺夫函数方法和反步技术,构建了一个通用的自适应神经控制器。该控制器有效地解决了过参数化问题,并进一步减轻了计算负担。在所提出的通用自适应控制器作用下

    来源:IEEE/CAA Journal of Automatica Sinica

    时间:2025-11-22

  • 一类非线性系统的最优状态估计与故障诊断

    摘要:本研究提出了一种用于非线性系统状态估计及故障诊断的方案。首先,为受到执行器或系统故障影响的非线性系统设计了一个最优非线性观测器。通过利用李雅普诺夫U+02BC直接方法,证明了该观测器在性能函数(包括观测器增益的大小和收敛时间)方面是最优的。观测器增益是通过近似哈密顿-雅可比-贝尔曼(HJB)方程获得的,而这种近似是通过在线训练的神经网络(NN)来确定的。接下来,研究了一类除了故障信号外还受到未知干扰影响的仿射非线性系统。在这种情况下,对于每种故障,原始系统都被转换成一种新的形式,从而可以应用所提出的最优观测器来进行状态估计和故障检测与隔离(FDI)。对单连杆柔性关节机器人(SLFJR)电

    来源:IEEE/CAA Journal of Automatica Sinica

    时间:2025-11-22

  • 具有均匀量化通信数据和干扰的车辆网络物理系统的神经自适应滑模控制

    摘要:本文研究了在受到外部干扰的情况下,异构车辆信息物理系统(VCPSs)的编队控制问题,采用了神经网络和统一量化的通信数据。为了减少量化误差对系统性能的不利影响,为每辆跟随车辆建立了一个耦合滑模面。径向基函数(RBF)神经网络被用来近似未知的外部干扰。然后,提出了一种新的编队控制律,用于协作跟踪,其中每辆跟随车辆仅使用相邻车辆的统一量化数据。本文设计的控制器是完全分布式的,因为每辆车控制器参数的选择与整个通信拓扑结构无关。这种控制方法能够确保VCPSs在整个控制过程中的串稳定性,而不仅仅是在滑模面收敛到零之后的稳定性。与现有的控制器设计和量化机制相比,本文提出的神经自适应滑模编队控制器在跟踪

    来源:IEEE/CAA Journal of Automatica Sinica

    时间:2025-11-22

  • 学习具有保证收敛性的深度卷积神经网络算法

    摘要:卷积神经网络(CNN)在图像分类等众多任务中取得了显著的成功,然而与它们的实际表现相比,对其收敛性的理论理解仍然不够充分。本文提出了首个具有收敛性保证的学习框架,用于深度CNN的端到端学习。该框架基于卷积神经网络中每一层的数学表示,制定了新的更新规则并进行收敛性分析。所提出的学习规则使得深度卷积神经网络的所有层能够同时进行权重更新,分析表明训练误差会收敛到特定的范围内,这些范围取决于近似误差的大小。通过对基准数据集进行案例研究,结果表明,所提出的并发滤波器学习框架能够保证收敛性,并在训练过程中提供更加一致和可靠的结果,尽管在性能上与随机梯度下降方法存在一定的 trade-off。这一框架

    来源:IEEE/CAA Journal of Automatica Sinica

    时间:2025-11-22

  • 个性化差分隐私图神经网络:面向低度节点的隐私保护与数据效用平衡新方法

    在社交推荐、交通预测等敏感应用场景中,图神经网络(Graph Neural Networks, GNN)正发挥着越来越重要的作用。然而,随着图数据隐私泄露事件频发,如何在GNN训练过程中有效保护节点隐私成为亟待解决的难题。差分隐私(Differential Privacy, DP)作为一种严格的隐私保护框架,通过注入噪声的方式为图数据提供隐私保障,但其“一刀切”的隐私预算分配方式却带来了新的问题——现实图中的节点往往遵循功率律分布,即大多数节点具有较少的连接(低度节点),这些节点在均匀噪声扰动下会遭受更严重的数据效用损失。针对这一挑战,北京理工大学研究团队在《IEEE/CAA Journal

    来源:IEEE/CAA Journal of Automatica Sinica

    时间:2025-11-22

  • 请听这段摘录:“基于起始语触发的语音目标说话者提取”(Onset-Prompted Target Speaker Extraction)

    摘要:我们提出了一种名为Listen to Extract (LExt) 的算法,该算法在单声道目标说话者提取(TSE)方面具有极高的效率且实现方式极其简单。给定目标说话者的录音语音,LExt 旨在从包含其他说话者的混合语音中提取出目标说话者的声音。对于每种混合语音,LExt 会在波形层面将目标说话者的录音语音与混合信号连接起来,并通过训练深度神经网络(DNN)来根据连接后的混合信号提取目标说话者的声音。这样做的原理是:人为地创建了一个目标说话者的语音起始点,这有助于 DNN (a)判断出需要提取的是哪位说话者的声音;(b)识别出目标说话者的频谱-时间特征,从而辅助提取过程。这种简单的方法在多

    来源:Artificial Life

    时间:2025-11-22


页次:136/2233  共44642篇文章  
分页:[<<][131][132][133][134][135][136][137][138][139][140][>>][首页][尾页]

高级人才招聘专区
最新招聘信息:

知名企业招聘:

    • 国外动态
    • 国内进展
    • 医药/产业
    • 生态环保
    • 科普/健康