
-
生物通官微
陪你抓住生命科技
跳动的脉搏
多编解码器跨模式JNQP预测基准:ALR-Video大规模压缩视频数据集的构建与应用
【字体: 大 中 小 】 时间:2025年06月20日 来源:Journal of Visual Communication and Image Representation 2.6
编辑推荐:
针对现有压缩视频数据集无法满足多编解码器(H.265/H.266)及多编码模式(AI/RA/LD)下JNQP(Just Noticeable Quantization Parameter)精准预测的问题,研究人员构建了首个大规模ALR-Video数据集,包含50组源视频经38个QP压缩后的主观评价数据。该数据集为感知视频编码(PVC)优化提供了跨平台基准,相关成果发表于《Journal of Visual Communication and Image Representation》。
在数字视频占据互联网流量75%且持续增长的今天,高效压缩技术成为缓解存储压力的关键。人类视觉系统(HVS)对低于特定阈值的失真不敏感,这一阈值称为最小可觉失真(Just Noticeable Distortion, JND),而量化参数(Quantization Parameter, QP)直接决定编码失真程度。现有JND预测数据集存在三大局限:样本量不足、测试者数量少、未覆盖主流编解码器(如H.265/H.266)和多编码模式(如全帧内AI、随机访问RA、低延迟LD)。这些问题导致JND或JNQP预测模型泛化能力受限,阻碍感知视频编码(Perceptual Video Coding, PVC)的优化。
为解决上述问题,杭州电子科技大学丽水研究院团队联合国内多所机构,构建了首个跨编解码器、多模式的大规模ALR-Video数据集。研究选取50组内容多样的源视频,通过H.265和H.266编解码器,采用AI、RA、LD三种模式,以38个QP值进行压缩。50名受试者参与主观实验,评估每个视频在三个感知质量级别下的JNQP值。数据经可靠性检验、异常值剔除及正态性分析后,建立了首个支持多编解码器JNQP预测的标准化数据集。
关键技术方法
研究结果
结论与意义
ALR-Video是首个面向多编解码器、多编码模式的JNQP预测数据集,其规模(50视频×2编解码器×3模式×38QP)和严谨性(50人主观实验+三重数据检验)填补了领域空白。研究发现,编解码器类型和编码模式显著影响JNQP分布,这一结论为开发自适应PVC算法提供了理论依据。数据集已开源,可推动H.265/H.266的感知编码优化与质量评估研究。未来工作将扩展至更多编解码器(如AV1)和动态场景下的JNQP预测。
(注:全文细节均基于原文,专业术语如HVS、JND、QP等首次出现时均标注英文全称,技术方法省略具体试剂与操作步骤,保留实验设计核心逻辑。)
生物通微信公众号
知名企业招聘