基于多尺度融合增强的服装图像解析方法
作者:
作者单位:

江南大学 人工智能与计算机学院,江苏 无锡214000

作者简介:

陈丽芳(1973—),女,教授,硕士生导师,主要研究方向为数字图像处理、深度学习理论与应用、目标三维重建。E-mail:may7366@163.com

通讯作者:

中图分类号:

TP399

基金项目:

国家自然科学基金(61872166)


Clothing Image Parsing Method Based on Multi-scale Fusion Enhancement
Author:
Affiliation:

School of Artificial Intelligence and Computer Science, Jiangnan University, Wuxi 214000, China

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    基于卷积神经网络中的各个层次特征,提出了一种基于多尺度融合增强的服装图像解析方法。通过融合增强模块,在考虑全局信息的基础上对包含的语义信息和不同尺度特征进行有效融合。结果表明:在Fashion Clothing测试集上的平均F1分数达到60.57%,在LIP(Look Into Person)验证集上的平均交并比(mean intersection over union,MIoU)达到54.93%。该方法可以有效地提升服装图像解析精度。

    Abstract:

    By using the features of each level in convolutional neural network, a clothing image parsing method based on multi-scale fusion enhancement was proposed. Through the fusion enhancement module, the semantic information and the features in different scales were effectively fused with the consideration of global information. The results show that the average F1 score on the Fashion Clothing test set reaches 60.57%, and the mean intersection over union(MIoU) on the Look Into Person(LIP) validation set reaches 54.93%. The method can effectively improve the accuracy of clothing image parsing.

    参考文献
    相似文献
    引证文献
引用本文

陈丽芳,余恩婷.基于多尺度融合增强的服装图像解析方法[J].同济大学学报(自然科学版),2022,50(10):1385~1391

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2022-05-10
  • 最后修改日期:
  • 录用日期:
  • 在线发布日期: 2022-11-03
  • 出版日期: