基于可学习图像滤波器的雾天驾驶场景图像语义分割-学术咨询网
计算机工程与科学

计算机工程与科学杂志

  • 北大期刊
  • CSCD
  • 统计源期刊
  • 知网收录
  • 维普收录
  • 万方收录
基本信息
  • 主管单位:

    国防科技大学

  • 主办单位:

    国防科技大学计算机学院

  • 国际刊号:

    1007-130X

  • 国内刊号:

    43-1258/TP

  • 创刊时间:

    1973

  • 期刊类别:

    计算机期刊

  • 出版社:

    计算机工程与科学

  • 主编:

    王志英

  • 发行周期:

    月刊

出版信息
  • 审稿周期:

    1-3个月

  • 被引次数:

    19216

  • 邮发代号:

    42-153

  • 全年定价:

    ¥796.00

  • 他引率:

    0.9643

  • 邮编:

    410073

期刊详情 投稿咨询 关注公众号

基于可学习图像滤波器的雾天驾驶场景图像语义分割

作者:徐欣,李若诗,袁野,刘娜
关键词:
摘要:尽管基于深度学习的图像语义分割方法在传统的驾驶数据集上取得了很好的效果,但针对雾天条件下的低质量图像的语义分割仍然具有挑战性。针对此问题,提出了可学习图像滤波器
尽管基于深度学习的图像语义分割方法在传统的驾驶数据集上取得了很好的效果,但针对雾天条件下的低质量图像的语义分割仍然具有挑战性。针对此问题,提出了可学习图像滤波器LIF模块,旨在利用不同雾浓度下驾驶场景图像的内在特征,改进雾天驾驶条件下的图像语义分割。LIF模块由超参数预测模块HPM和图像滤波模块IFM组成,IFM中滤波器的超参数由HPM预测得到。以端到端的方式联合学习HPM和语义分割网络,确保了HPM可以学习适当的IFM参数,以弱监督的方式增强图像以进行分割。分别以DeepLabV3+、PSPNet和RefineNet作为基线模型,并在Cityscapes和Foggy Cityscapes的混合数据集上进行实验,基线模型加可学习的图像滤波器模块的MIoU分别为63.14%,60.45%和61.41%,相比基线模型的MIoU分别提升了3.03%,1.52%和1.69%,实验结果表明了该模型的有效性与通用性。


Although deep learning-based semantic segmentation methods have achieved excellent results on traditional driving datasets, low-quality images captured under foggy conditions remain challenging. To address this issue, this paper proposes a learnable image filter (LIF) module, aiming to leverage the intrinsic characteristics of driving scene images under varying fog densities to improve semantic segmentation in foggy driving conditions. The LIF module consists of a hyperparameter prediction module (HPM) and an image filtering module (IFM), where the hyperparameters of the filter in the IFM are predicted by the HPM. This paper jointly learns the HPM and the semantic segmentation network in an end-to-end manner, ensuring that the HPM can learn appropriate IFM parameters to enhance images for segmentation in a weakly supervised manner. Taking DeepLabV3+, PSPNet, and RefineNet as baselines, respectively, experiments were conducted on a mixed dataset of Cityscapes and Foggy Cityscapes. The mean intersection over union (MIoU) scores of the baselines with the learnable image filter module are 63.14%, 60.45%, and 61.41%, representing improvements of 3.03%, 1.52%, and 1.69% over the baselines, respectively. The experimental results demonstrate the effectiveness and generality of the proposed module.


相关文章
[1]付燕, 杨旭, 叶鸥. 基于CNN和Transformer特征融合的烟雾识别方法[J]. 计算机工程与科学, 2024, 46(11): 2045-2052.
[2]潘雨青, 于浩, 李峰. 基于加权非负矩阵分解的异常声音检测方法研究[J]. 计算机工程与科学, 2024, 46(08): 1425-1432.
[3]田红鹏, 吴璟玮. RIB-NER:基于跨度的中文命名实体识别模型[J]. 计算机工程与科学, 2024, 46(07): 1311-1320.
[4]尹春勇, 赵峰. 基于双层注意力和深度自编码器的时间序列异常检测模型[J]. 计算机工程与科学, 2024, 46(05): 826-835.
[5]马长林, 孙状. 基于实体知识的远程监督关系抽取[J]. 计算机工程与科学, 2024, 46(05): 945-950.
[6]陈杰, 李程, 刘仲. 面向多核向量加速器的卷积神经网络推理和训练向量化方法[J]. 计算机工程与科学, 2024, 46(04): 580-589.
[7]曹浩东, 汪海涛, 贺建峰. 融合序列局部信息的日期感知序列推荐算法[J]. 计算机工程与科学, 2024, 46(04): 734-742.
[8]秦文强, 吴仲城, 张俊, 李芳, . 基于异构平台的卷积神经网络加速系统设计[J]. 计算机工程与科学, 2024, 46(01): 12-20.
[9]周理, 赵祉乔, 潘国腾, 铁俊波, 赵王. 基于RISC-V的图卷积神经网络加速器设计[J]. 计算机工程与科学, 2023, 45(12): 2113-2120.
[10]余子丞, 凌捷. 基于Transformer和多特征融合的DGA域名检测方法[J]. 计算机工程与科学, 2023, 45(08): 1416-1423.
[11]刘俊奇, 涂文轩, 祝恩. 图卷积神经网络综述[J]. 计算机工程与科学, 2023, 45(08): 1472-1481.
[12]易啸, 马胜, 肖侬. 深度学习加速器在不同剪枝策略下的运行优化[J]. 计算机工程与科学, 2023, 45(07): 1141-1148.
[13]崔克彬, 崔叶微. 基于卷积和Transformer的断路器动触头跟踪方法研究[J]. 计算机工程与科学, 2023, 45(07): 1236-1244.
[14]排日旦·阿布都热依木, 吐尔地·托合提, 艾斯卡尔·艾木都拉, . 基于深度学习的实体关系抽取方法研究[J]. 计算机工程与科学, 2023, 45(05): 895-902.
[15]董芃杉, 张晶, 金日泽. 基于双通道门控复合网络的中文产品评论情感分析[J]. 计算机工程与科学, 2023, 45(05): 911-919.
注:因版权方要求,不能公开全文,如需全文,请咨询杂志社