本发明公开了一种基于非局部增强的生成对抗网络的3D视觉显著性预测方法。具体步骤为:(1)非局部密集增强的编解码器网络生成器:输入是RGB图和深度图,经过网络提取图像的多尺度特征,非局部增强网络可结合局部信息与全局信息和实现特征重用。(2)判别网络:将RGB图、深度图和显著性图作为鉴别器的输入,输出表示输入的图片为人眼显著性的概率。(3)基于非局部增强的生成对抗网络模型训练:在训练过程中,使用双路编码器分别对RGB图像和深度图像分别训练,且深度图像采用迁移训练;采用了多尺度生成损失函数和对抗损失函数联合作为最终损失函数来指导训练。(4)、最后,利用步骤(3)训练好的网络模型进行测试,可得到显著性图。
上海大学
王永芳 | 王宇彤
