投稿平台

【学术科研】测绘学院赵江洪教授团队在Vgg-Vote网络模型用于高精度遥感影像分类方面取得重要进展

部门:科学技术发展研究院 供稿:科发院,教授团队 摄影:教授团队 审核:王万鹏,周理安 发布时间:2024-05-11 阅读次数:

字号大小


遥感影像包含丰富的地物纹理信息和空间语义信息,被广泛应用于智慧农业、灾情检测以及城市规划等诸多方面,并发挥着越来越重要的作用。影像分类是将影像按照不同的语义类别进行划分,基于深度神经网络模型的影像分类已达到较高的精度水平,但其忽略了整个影像语义与单个像素语义相同的特点,因此如何融入语义将遥感图像进行自动化精确分类是一个研究热点。

赵江洪教授团队根据部分代替整体的思想,设计了一种分割结果投票机制,构建了Vgg-Vote网络模型。Vote机制对整个影像的语义分割结果进行类别投票,在分割结果的基础上重新对整幅影像的类别进行判定,表现出更高的影像分类精度和更强的鲁棒性。相关研究成果以“A high-precision image classification network model based on a voting mechanism”为题,发表于《International Journal of Digital Earth》。

赵江洪团队将单张影像的语义类别和每个像素语义类别相同的特点作为先验知识构建Vote投票机制,并将该机制与Vgg 16网络相融合,设计出应用于影像高精度分类的Vgg-Vote网络模型。Vgg-Vote网络模型以全卷积神经网络(FCN)和Vote投票机制为主体,利用跨层连接将全局信息和局部信息进行融合,从而实现影像的高精度分类。通过UC Merced_LandUse数据集对Vgg-Vote网络模型进行分类评估,对没有破损的完整数据集进行测试,分类精度可达95.12%。验证了Vgg-Vote网络模型对多种干扰因素的抵抗能力,通过对数据集进行增加30%噪音、50%噪音、多区域遮挡、多区域丢失、单区域大面积丢失等干扰,制作破损数据集,并分别对Vgg-Vote网络模型进行测试,精度分别可达90.05%、83.82%、93.83%、94.80%、94.3%,证明了Vgg-Vote网络具有足够高的分类精度,并且对多种外界干扰具有一定的鲁棒性。

Vgg-Vote网络结构图

投票机制图

北京建筑大学测绘学院赵江洪教授为论文第一作者,赵江洪团队研究生王鑫为论文第二作者,研究生窦新铜为论文通讯作者。该研究得到了国家自然科学基金、国家重点研发计划、北京市自然科学基金、北京建筑大学市属高校基本科研业务费项目、地理信息工程国家重点实验室、测绘遥感信息工程国家重点实验室、自然资源部数字制图与国土信息应用重点实验室等项目和机构的大力支持。

原文链接:https://webofscience.clarivate.cn/wos/woscc/full-record/WOS:000891983200001





北京建筑大学
西城校区地址:北京市西城区展览馆路1号 邮编100044
大兴校区地址:北京市大兴区黄村镇永源路15号 邮编102616
京ICP备案:09079300 文保网安备案:1101020003 版权所有 :北京建筑大学
版权与免责声明

微博账号

微信公众号