作者投稿和查稿 主编审稿 专家审稿 编委审稿 远程编辑

计算机工程 ›› 2021, Vol. 47 ›› Issue (5): 205-212. doi: 10.19678/j.issn.1000-3428.0057740

• 图形图像处理 • 上一篇    下一篇

基于生成感知差异的无参考图像质量评价模型

刘海, 杨环, 潘振宽, 黄宝香, 侯国家   

  1. 青岛大学 计算机科学技术学院, 山东 青岛 266100
  • 收稿日期:2020-03-16 修回日期:2020-04-16 发布日期:2020-04-16
  • 作者简介:刘海(1995-),男,硕士研究生,主研方向为图像质量评价、人工智能;杨环(通信作者),副教授、博士;潘振宽,教授、博士、博士生导师;黄宝香,副教授、博士;侯国家,讲师、博士。
  • 基金资助:
    国家自然科学基金(61602269);中国博士后科学基金(2017M622136);青岛市应用研究项目(2016025)。

No-Reference Image Quality Assessment Model Based on Generated Perceptual Difference

LIU Hai, YANG Huan, PAN Zhenkuan, HUANG Baoxiang, HOU Guojia   

  1. College of Computer Science&Technology, Qingdao University, Qingdao, Shandong 266100, China
  • Received:2020-03-16 Revised:2020-04-16 Published:2020-04-16

摘要: 人眼视觉系统中的视觉感知差异是图像质量评价过程中的重要组成部分,通过感知失真图像与原始图像之间的视觉差异,可对图像的失真程度进行判断,然而在无参考图像质量评价中无法获取原始未失真的图像,且缺乏对失真图像的视觉感知差异。通过对深度学习中的生成对抗网络进行分析,提出一种基于生成视觉感知差异的无参考图像质量评价模型。利用生成对抗网络产生与失真图像相对应的视觉感知差异图像,并将其与失真图像输入质量评价网络以进一步学习图像的失真信息,从而达到评估图像质量的目的。在TID2008和TID2013数据库上的实验结果表明,与CNN、SOM、CORNIA等模型相比,该模型能够使失真图像质量预测准确度提升1个百分点以上,且对不同种类失真也表现出良好的预测性能。

关键词: 无参考图像质量评价, 视觉感知差异, 生成对抗网络, 深度学习, 损失函数

Abstract: The visual perception difference in the Human Visual System(HVS) is key to image quality evaluation.By sensing the visual difference between the distorted image and the reference image,the distortion degree of the image can be judged.However,this method is inadequate for No-Reference Image Quality Assessment(NR-IQA) where the original undistorted image cannot be obtained for the judgement of visual perception difference.By analyzing the Generative Adversarial Network(GAN) in deep learning,this paper describes a NR-IQA model based on generated perceptual differences.The model employs GAN to generate the visual perception difference image corresponding to the distorted image,and then inputs both kinds of images into the Image Quality Assessment(IQA) network to further learn the distortion information of the image,completing the evaluation of the image quality.The experimental results on TID2008 and TID2013 databases show that compared with CNN,SOM,CORNIA and other models,the proposed model can improve the prediction accuracy of distorted image quality by more than 1 percentage point,and shows excellent performance for different types of distorted images.

Key words: No-Reference Image Quality Assessment(NR-IQA), visual perceptual difference, Generative Adversarial Network(GAN), deep learning, loss function

中图分类号: