一、基于启发知识的神经网络训练策略(论文文献综述)
何沛松,李伟创,张婧媛,王宏霞,蒋兴浩[1](2022)在《面向GAN生成图像的被动取证及反取证技术综述》文中研究说明生成对抗网络(generative adversarial network, GAN)快速发展,并在图像生成和图像编辑技术等多个方面取得成功应用。然而,若将上述技术用于伪造身份或制作虚假新闻,则会造成严重的安全隐患。多媒体取证领域的研究者面向GAN生成图像已提出了多种被动取证与反取证方法,但现阶段缺乏相关系统性综述。针对上述问题,本文首先阐述本领域的研究背景和研究意义,然后分析自然图像采集与GAN图像生成过程的区别。根据上述理论基础,详细介绍了现有GAN生成图像的被动取证技术,包括:GAN生成图像检测算法,GAN模型溯源算法和其他相关取证问题。此外,针对不同应用场景介绍基于GAN的反取证技术。最后,通过实验分析当前GAN生成图像被动取证技术所面临的挑战。本文根据对现有技术从理论和实验两方面的分析得到以下结论:现阶段,GAN生成图像的被动取证技术已在空间域和频率域形成了不同技术路线,较好地解决了简单场景下的相关取证问题。针对常见取证痕迹,基于GAN的反取证技术已能够进行有效隐藏。然而,该领域研究仍存在诸多局限:1)取证与反取证技术的可解释性不足;2)取证技术鲁棒性和泛化性较弱;3)反取证技术缺乏多特征域协同的抗分析能力等。上述问题和挑战还需要研究人员继续深入探索。
李辉[2](2021)在《基于表示学习的图像融合算法研究与应用》文中研究指明信息融合技术尤其是多模态信息融合技术,在军事国防、民用安防以及智慧城市建设等领域都有着广泛的应用,并时刻影响着人们的日常生活。同时伴随着这些领域的快速发展,也涌现出了大量的全新的视觉数据。从早期的单模态可见光数据(RGB)到使用红外摄像机采集的热红外和近红外数据,再到更加专业的深度相机、高光谱相机(卫星)以及医学设备采集的视觉数据,这些都显示出实际应用场景对多模态信息融合技术的迫切需求。基于这些视觉数据以及实际需求,多模态视觉信息融合始终是一个热门的研究课题。而如何将不同设备采集到的视觉信息进行有效地整合、处理也变得尤为重要。在本文中,多模态视觉信息融合主要是指多模态图像融合,其主要目的是将多幅配准好的多源(多模态)图像进行整合,使得在最终的融合图像中既能够保留不同模态的有效特征又能够减少模态间的冗余信息。最终的融合图像能够包含更多的有用信息,有利于提高下游计算机视觉任务的性能,如目标跟踪、语义分割、显着性检测等。经过近三十多年的发展,研究学者们提出了许多图像特征提取算法、融合策略以及融合模型。在计算机视觉发展的每一个阶段,都出现了大量结合最新技术的图像融合算法。而随着机器学习的飞速发展,在图像融合领域,表示学习技术也受到了研究学者的高度关注。从早期的基于多尺度变换的融合算法,到基于稀疏/低秩表示的图像融合模型,再到结合其他图像处理技术(形态学分析,脉冲耦合神经网络等)的融合算法,都体现出图像融合任务持续的研究热度。而深度学习的出现,又为融合算法的研究注入了新的活力。利用深度学习强大的学习能力,将大量需要人为设定的处理操作用神经网络模块来代替,极大降低了图像特征提取和融合策略设计的难度。具体来说,基于多尺度变换的融合模型是利用频域信号处理技术(小波分解,剪切波变换,轮廓波变换等)将源图像变换到频域,然后使用恰当的融合策略将频域系数进行融合,最后利用多尺度分解的逆变换得到融合图像。而基于稀疏/低秩表示的融合算法则是直接在空域对图像进行操作,先将图像分为多个图像块并将其重新组成一个样本矩阵,然后使用稀疏/低秩表示来计算样本矩阵对应的稀疏/低秩系数,最终使用恰当的融合策略以及重构模型得到融合图像。基于深度学习的融合算法可以分为三类:(1)基于预训练网络;(2)基于自编码网络;(3)基于端对端网络。基于预训练网络的融合算法是利用预训练的大规模网络强大的特征提取能力来提取源图像特征(代替了传统的图像特征提取方法),然后使用恰当的融合策略计算多模态图像之间的融合权重,得到最终的融合图像。而基于自编码网络结构的融合模型,则是将图像特征提取和融合图像生成两个操作用神经网络代替,从而得到更好的融合图像。基于端对端网络的图像融合网络模型是将所有的融合操作都用网络代替,利用网络结构和损失函数的设计来达到期望的融合效果。本文从以上几个方面对多模态图像融合算法进行了探索。首先分析了稀疏表示在图像融合中的不足,对其进行针对性的改进。针对深度学习的特点以及训练图像融合网络的痛点问题,本文也对基于深度学习的融合算法进行了研究与探索。本文的主要工作概括如下:(1)提出基于低秩表示的图像融合算法,这是低秩表示首次被引入图像融合领域。基于字典学习和低秩表示的融合算法利用梯度方向直方图(Histograms of Oriented Gradients,HOG)特征对图像块进行分类,并学习一个全局字典,然后利用全局字典和低秩表示得到融合图像。在基于低秩表示融合算法的基础上,又提出了基于多级图像分解和潜在低秩表示的融合算法,根据潜在低秩表示对图像分解的特点将其推广到深度领域,提出图像的多级分解模型,有效地增强了算法的融合性能。(2)提出基于预训练神经网络的图像融合算法,将大规模神经网络引入图像融合任务中。基于VGG-19网络和多级深度特征的图像融合算法,是将预训练的VGG-19网络用于提取图像的多级深度特征,然后得到对应于源图像的融合权重,最终对原图进行融合。此外,作者又将预训练的Res Net-50网络引入到融合领域,并使用零相位成分分析(Zero-phase Component Analysis,ZCA)对深度特征进行处理,得到更准确的融合权重。这一类算法进一步提升了融合性能,并为图像融合领域提供了全新的探索方向。(3)提出基于自编码网络框架的图像融合算法。这类方法旨在加强深度学习与图像融合任务的有机结合,并探索深度学习与图像融合任务更多的可能性。首先训练一个自编码网络(由编码器和解码器组成),对网络的输入进行重构。编码器用来提取图像深度特征,解码器则利用得到的深度特征对原始输入进行重构。这种训练方式并不需要特定的训练样本,因此能够有效避免图像融合领域训练样本不足的问题。在测试时,针对不同类型的融合图像,引入恰当的融合策略,最终得到融合图像。这类方法展现出了强大的灵活性和可扩展性,受到大量研究学者的关注。(4)提出基于端对端网络的图像融合算法。尽管基于自编码网络的融合算法取得了优异的融合性能,但是这类方法的融合策略还是需要人为设定。针对这一问题,本文对端对端的融合网络进行了探索。第一种方式是用一个可学习的简单网络代替基于自编码网络融合算法中的融合策略,通过与自编码网络框架结合,提升了算法的融合性能。第二种方式是提出全新的网络结构和损失函数,将图像融合的所有操作用一个网络直接实现,输出为融合图像。这类算法不仅提高了融合性能,并且能够很方便的应用于其他计算机视觉任务。
吴少乔[3](2021)在《面向高光谱图像分类的样本预选方法》文中认为
贾敬森[4](2021)在《基于深度学习的路侧车辆目标视觉检测算法研究》文中研究指明
王旭磊[5](2021)在《基于GAN和GRU的时间序列预测和填补方法研究》文中认为近年来,随着传感器、物联网、云计算等技术的发展,海量的时间序列数据不断的产生并被记录下来,对这些时间序列数据的挖掘和分析给我们日常生活带来了巨大的便利,例如天气预报、气候预测、股价预测、商品零售预测等。鉴于时间序列在众多广泛应用中的重要性,许多时间序列预测方法相继被提出,其中大多数是自回归生成模型,该模型在训练时使用真实的历史数据,但在预测时这些数据会被网络生成的预测数据所替代,导致模型在预测过程中产生错误累积,进而降低模型的预测性能。此外,时间序列数据在采集过程中,由于传感器故障或者传输、存储不当等原因很容易造成数据的缺失。时间序列数据前后值之间具有很强的依赖性,这些缺失的部分会极大的阻碍对时序数据的建模。因此,有效的缺失值处理方法通常可以使后续时间序列分析和预测类任务事半功倍。传统的缺失值处理方法大多未考虑到时序数据的前后依赖特性,因此难以取得准确的填补效果。针对当前自回归时间序列预测模型的局限性,本文结合生成式对抗网络的思想,提出一种基于生成式对抗网络(Generation Adversarial Network,GAN)和门控循环神经网络(Gate Recurrent Units,GRU)的时间序列预测方法。该模型采用非常适用于序列数据建模的门控循环神经网络来搭建内部网络结构,同时判别器可以进一步提升网络在序列级上的预测精度,降低误差积累对网络预测性能的影响。网络训练完成后,生成器可以生成符合原始时间序列数据分布的预测值。针对时间序列数据的缺失问题,本文在在充分研究了时间序列数据的特性之后,采用双向门控循环神经网络结合生成式对抗网络技术和去噪自编码器的思想,提出了基于双向门控循环神经网络和生成对抗网络的时间序列数据缺失值填充方法。该方法可以结合每条缺失数据的未来信息与过去信息,在缺失的数据集上直接完成填补工作。真实数据集下的实验结果证明了本文提出的时序数据预测方法和时序数据缺失值填补方法的有效性。
韩爽[6](2021)在《基于单张彩色图像的手部姿态和形状估计方法研究》文中研究指明手部姿态估计在多个智能领域均有着广泛的应用潜力,同时彩色图像获取的途径丰富多样且比较便捷,所以从单张彩色图像着手进行手部姿态估计是十分有意义的。但是,从单张彩色图像直接推断3D姿态存在深度模糊问题,导致估计的3D姿态结果不佳。此外,仅估计抽象的3D关节点坐标位置不能满足如机器人操作、人机交互等实际应用的需求,因此有必要对重建合理而逼真的手部形状工作进行深入的研究。针对上述问题,本文进行了深入研究,具体工作如下:(1)针对深度模糊问题,本文给出弱深度信息表示法,将手在深度空间的活动范围进行划分并编码,使得组成手部骨架的各个关节点均属于特定的深度区间,并拥有特定的深度区域编码;将所有手部关节点的深度区间编码按一定顺序组合,即获得能够揭示手在深度空间中结构关系的深度关系向量;进而生成包含局部关节点位置信息和深度空间全局手部结构信息的3D姿态过渡特征,该特征介于2D姿态和3D姿态之间,可作为3D姿态估计过程中的中间过渡,从而实现从3D姿态过渡特征到3D姿态的映射。通过此方法表明,在仅基于单张彩色图像估计3D姿态的过程中找到合适的中间过渡能够缓解深度模糊问题,估计出合理的3D姿态。(2)考虑到同时估计3D姿态和形状有助于提供更丰富、更明确的手部信息,本文给出基于MANO模型的逆运动学解析3D手部形状和姿态估计方法,本方法在不用3D手部形状顶点真值做监督的情况下,也能生成合理而逼真的3D手部形状,同时可以提供较为准确的、符合生理学结构的3D姿态。具体来说,本方法利用估计的相对准确的3D手部姿态,作为MANO模型重建手部形状的初始3D姿态,实现逆运动学解析思想的3D形状重建。另外,重建得到的3D形状通过特定的关节点回归器和调整层可回归得到较为准确的3D手部姿态。计算机仿真实验结果表明,本文给出两种方法有效。
张少华[7](2021)在《基于深度学习的立体匹配算法研究》文中认为双目立体视觉是被动式三维视觉方法中一种重要的深度感知技术,其目的是从不同视点获取的两幅图像中恢复出场景的三维结构,广泛应用于工业测量、无人驾驶、3D场景建模等领域。其中,立体匹配算法的准确性和计算效率是决定立体视觉系统能否鲁棒、实时应用的关键。与人工设计特征的传统立体匹配方法相比,基于深度学习的立体匹配算法在精度上取得了显着提升,但在弱纹理、倾斜平面以及深度不连续等病态区域上仍然不理想,且随着网络结构的日益复杂,对内存和计算资源的要求越来越高,在实际应用中往往难以部署。为了实现计算资源受限情况下的高精度立体匹配,本文基于经典的DispNet网络进行改进,提出了两种端对端的视差计算网络,通过实验验证了网络的准确性与鲁棒性。论文的主要研究内容如下:(1)研究了双目立体匹配基础理论以及卷积神经网络的基本构成。由于立体匹配和图像分割任务同属于逐像素的稠密预测任务,为了更好地将深度学习方法应用于立体匹配问题,研究了三个经典的图像分割模型,并重点研究了基准模型DispNet的网络结构和实现原理。(2)提出了一种基于长短跳跃连接的视差计算网络,简称为Res-DispnetC。该网络使用编码-解码结构,通过引入残差结构和基于矩阵乘法的代价计算方法实现网络结构调整与性能优化。在SceneFlow和KITTI数据集上的实验结果表明,该方法可以快速准确地生成高分辨率预测视差图,便于在实际场景中应用部署。(3)提出了一种基于混合注意力机制的视差计算方法,简称为Res-DispnetC-scSE。通过将并行的空间和通道挤压激励模块scSE嵌入到视差估计网络中进行端对端训练,可以自适应地增强匹配代价体中重要的空间与通道信息,提高网络的学习能力。通过在SceneFlow、KITTI和Middlebury数据集上进行实验验证,结果表明,嵌入scSE模块的视差计算网络在真实的室内外场景中都可以实现稠密的高精度视差预测,具有良好的泛化能力,且明显提升了弱纹理、细小结构等病态区域的预测精度,充分证明了本文模型的鲁棒性与有效性。
李帅军[8](2021)在《基于深度学习的低分辨率图像融合算法研究》文中研究表明无透镜显微成像系统因其低成本、小型化等优势为细胞便携检测设备开发提供了良好方案,但该系统采集的细胞图像存在分辨率低、特征信息少等问题。为了便于对细胞形态观察及检测,本文主要研究适用于无透镜成像系统的低分辨率细胞图像超分辨率重构和图像特征融合算法。针对上述问题,采用传统图像处理算法难以有效解决,本文提出生成式对抗网络的图像超分辨率算法和基于卷积自编码网络图像特征融合算法,完成对无透镜低分辨率细胞图像超分辨率重构和特征融合。首先针对无透镜系统对血液细胞样本预处理及数据集建立方法进行研究,并将建立的数据集用于超分辨率重建及特征融合网络训练测试。其次从网络结构、损失函数、训练策略等方面对无透镜系统生成式对抗超分辨率网络(LSRGAN,Lensless Super-Resolution Generative Adversarial Network)优化和改进,待网络模型训练稳定后测试并采用图像质量评价指标进行评价。重建结果表明:将本文超分辨率算法LSRGAN与Bicbic、SRGAN等重建算法相比,本文提出的算法在信息熵和灰度梯度上均表现良好,主观可见细胞边缘及纹理信息明显增强。细胞图像经超分辨率重建后,再由卷积自编码融合网络将同类组织细胞特征融合。融合结果为“虚拟细胞”集合,代表同类组织细胞特征形态统计结果。将多组正常和异常细胞图像(每组8幅)按不同比例混合随机融合测试,使用无参考评价指标信息熵、灰度梯度、均方差等对结果分析比较。再利用融合后图像建立检索数据库结合传统KNN分类算法对未知细胞检索分类诊断。融合结果表明:本文融合算法相较传统融合算法在信息熵上提升10.37%。标准差和灰度梯度上明显高于传统算法,仅灰度梯度比神经网络算法PCNN略低,证明融合网络可使图像细节特征增强,纹理信息更加丰富。图像检索结果,为前期辅助医疗诊断提供参考依据。
董晓宇[9](2021)在《基于深度学习的遥感影像超分辨率重建方法研究》文中进行了进一步梳理
李靖[10](2021)在《基于注意力神经网络的Z玻色子标注》文中研究表明在高能物理中,实验研究的基本手段是通过粒子加速器对撞粒子,现在世界上能量最高的大型强子对撞机是目前主要的手段之一,通过研究被探测器接受到的末态粒子的动力学特征,从而实现事件重构,得到对撞过程的信息。末态粒子的信息被称为低级特征,传统的方法是在每一事件得到的低级特征上,来构造针对不同过程,不同模型的物理学观测量,即高级特征,经过观察针对该观测量人为施加截断,得到可分析的相空间区域,从而使得被观测过程相较于背景过程达到一定的显着性。几十年来,已经诞生出很多具有非常好的分辨效果的观测量,通过它们,研究人员从茫茫的平凡过程的背景下,得到关于新过程的洞见,并取得了令人瞩目的成绩。与此同时,在计算机科学领域也逐渐掀起了一场机器学习革命:通过叠加基本的神经元可以搭建起来任意复杂的神经网络,通过输入一些特征,它便可以自动地向我们给出的目标收敛。高能物理学的事件重构研究也符合这一流程:输入特征可以是表征事件侧面的特征,也可以是单个粒子的信息,而目标则是它来自于信号还是本底过程,这构成了一种典型的二分任务。于是在过去的几年里,研究人员将传统方法得到的高级特征传递给了增强决策树,这一与施加截断方法基本一致的机器学习算法中,取得了非常好的效果。之后,人们直接利用了低级特征,直接将保存的事件中的末态粒子信息,传递给了更为强大的深度学习算法,这构成了过去几年内百花齐放的研究场面,研究结果也表明了它相较于传统的截断方法和增强决策树有着不俗的表现与巨大的潜力,它彻底颠覆了传统的工作流程。值得注意的是尽管它在喷注标记,生成元构建,实验数据展开等研究方面得到了大力的发展,机器学习对于我们来说仍然是一个黑盒,其内部的推导机制仍然是模糊的。出发于朴素的思想,学界提出了注意力机制,现在也正是机器学习领域的主要研究方向之一。鉴于注意力机制的直观与可解释性,我们提出了应用于高能物理中喷注标记的基于注意力的神经网络。通过识别在平凡背景下的来自Z玻色子的喷注,我们证明了它相比于双流卷积神经网络更优的特性,在性能评估中最优,而且对信号与背景喷注图带来了全新的理解视角。
二、基于启发知识的神经网络训练策略(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、基于启发知识的神经网络训练策略(论文提纲范文)
(1)面向GAN生成图像的被动取证及反取证技术综述(论文提纲范文)
0 引 言 |
1 GAN生成图像的原理及异常痕迹 |
1.1 经典GAN结构的简要介绍 |
1.1.1 非条件GAN模型 |
1) DCGAN: |
2) WGAN: |
3) PGGAN: |
4) StyleGAN: |
5) 其他进展。 |
1.1.2 条件GAN模型 |
1) pix2pix: |
2) CycleGAN: |
3) StarGAN: |
1.2 GAN生成图像的异常痕迹 |
1.2.1 自然图像采集与GAN图像生成过程的区别 |
1.2.2 GAN图像异常痕迹的特点 |
1) GAN图像生成过程无法模拟自然图像采集过程中的颜色分量特性。 |
2) 生成器上采样操作导致的特殊纹理。 |
3)训练数据集和训练策略存在的局限。 |
1.3 GAN生成图像数据集 |
2 GAN生成图像的被动取证技术 |
2.1 GAN生成图像检测算法 |
2.1.1 基于空间域信息的GAN图像检测算法 |
2.1.1.1 基于手工特征的检测算法 |
2.1.1.2 基于卷积神经网络的检测算法 |
2.1.2 基于频率域信息的GAN图像检测算法 |
2.2 GAN模型溯源算法 |
2.3 其他与GAN生成图像相关的取证问题 |
3 基于GAN的反取证技术 |
3.1 面向图像生成溯源的反取证方法 |
3.1.1 设备源鉴定的反取证方法 |
3.1.2 CG图像检测的反取证方法 |
3.2 面向图像编辑处理的反取证方法 |
3.2.1 JPEG域编辑处理的反取证方法 |
3.2.2 空域编辑处理的反取证方法 |
3.2.3 多重编辑处理的反取证方法 |
4 GAN图像被动取证技术面临的挑战 |
4.1 对后处理操作的鲁棒性 |
4.2 对未知GAN模型的泛化能力 |
5 结 语 |
1)取证与反取证技术的可解释性不足。 |
2)取证技术的鲁棒性和泛化性较弱。 |
3)反取证技术缺乏多特征域协同的抗分析能力。 |
4)对抗博弈场景下,缺乏图像真实性鉴定的新机制。 |
(2)基于表示学习的图像融合算法研究与应用(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景与研究意义 |
1.1.1 研究背景 |
1.1.2 研究意义与范畴 |
1.2 国内外研究现状 |
1.2.1 融合阶段分类 |
1.2.2 图像融合算法研究现状 |
1.3 数据集与评价指标 |
1.3.1 测试及训练数据集 |
1.3.2 评价指标 |
1.4 论文的组织结构 |
第二章 基于低秩表示的图像融合算法 |
2.1 研究动机 |
2.2 基于字典学习和低秩表示的图像融合算法 (DLLRR) |
2.2.1 算法概述 |
2.2.2 基于图像块分类的字典学习模型 |
2.2.3 基于低秩表示的图像融合模型 |
2.3 基于多级图像分解和潜在低秩表示的图像融合算法 |
2.3.1 算法概述 |
2.3.2 多级图像分解模型(MDLatLRR) |
2.3.3 基于MDLatLRR的图像融合模型 |
2.4 实验和分析 |
2.4.1 DLLRR图像融合算法的实验设置和分析 |
2.4.2 MDLatLRR图像融合算法的实验设置和分析 |
2.4.3 MDLatLRR算法在多模态目标跟踪中的应用 |
2.5 本章小结 |
第三章 基于预训练深度网络的图像融合算法 |
3.1 研究动机 |
3.2 基于VGG-19网络和多级深度特征的图像融合算法(VggML) |
3.2.1 算法概述 |
3.2.2 图像分解操作 |
3.2.3 基于预训练VGG-19 网络的多级特征融合策略 |
3.3 基于零相位成分分析和ResNet-50 的图像融合算法 (ZCA-Res Net) |
3.3.1 算法概述 |
3.3.2 基于零相位成分分析 (ZCA) 的深度特征处理模型 |
3.3.3 基于ZCA和ResNet-50 的融合模型 |
3.4 实验和分析 |
3.4.1 VggML图像融合算法的实验设置和分析 |
3.4.2 ZCA-ResNet图像融合算法的实验设置和分析 |
3.5 本章小结 |
第四章 基于自编码网络的轻量级图像融合算法 |
4.1 研究动机 |
4.2 基于密集网络块和自编码结构的图像融合算法 (DenseFuse) |
4.2.1 算法概述 |
4.2.2 DenseFuse网络结构 |
4.2.3 训练策略 |
4.2.4 深度特征融合策略 |
4.3 基于空间和通道注意力机制的图像融合算法(NestFuse) |
4.3.1 算法概述 |
4.3.2 NestFuse网络结构 |
4.3.3 训练策略 |
4.3.4 基于空间和通道注意力机制的融合策略 |
4.4 实验和分析 |
4.4.1 DenseFuse图像融合算法的实验设置和分析 |
4.4.2 NestFuse图像融合算法的实验设置和分析 |
4.4.3 融合策略在RGBT目标跟踪中的应用 |
4.5 本章小结 |
第五章 基于端对端网络的融合算法 |
5.1 研究动机 |
5.2 基于残差融合结构的端对端图像融合算法 (RFN-Nest) |
5.2.1 算法概述 |
5.2.2 自编码网络结构 |
5.2.3 残差融合网络结构 (RFN) |
5.2.4 两阶段训练策略 |
5.3 基于低秩表示的端对端深度神经网络图像融合算法(LRRNet) |
5.3.1 算法概述 |
5.3.2 可学习的低秩表示图像分解模型(LLRR) |
5.3.3 基于LLRR的图像分解网络结构 |
5.3.4 基于LLRR图像分解结构的融合网络模型 |
5.4 实验和分析 |
5.4.1 RFN-Nest图像融合算法的实验设置和分析 |
5.4.2 LRRNet图像融合算法的实验设置和分析 |
5.4.3 融合策略在RGBT目标跟踪中的应用 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 全文总结 |
6.2 展望 |
致谢 |
参考文献 |
附录: 攻读博士学位期间完成的工作及其他科研成果 |
(5)基于GAN和GRU的时间序列预测和填补方法研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究的背景和意义 |
1.2 研究现状 |
1.2.1 时间序列预测方法研究现状 |
1.2.2 缺失值处理方法研究现状 |
1.3 本文研究内容 |
1.4 论文组织结构 |
2 相关研究基础 |
2.1 时间序列预测 |
2.2 前馈神经网络 |
2.3 循环神经网络 |
2.3.1 长短时记忆神经网络 |
2.3.2 门控神经网络 |
2.4 生成式对抗网络 |
2.4.1 经典生成对抗网络 |
2.4.2 生成对抗网络的改进形式 |
2.5 本章小结 |
3 GAN-G时间序列预测模型 |
3.1 引言 |
3.2 时间序列预测方法 |
3.2.1 时间序列特性 |
3.2.2 时间序列预测方法 |
3.3 GAN-G时间序列预测方法 |
3.3.1 模型整体架构 |
3.3.2 生成器架构 |
3.3.3 判别器架构 |
3.3.4 时间序列预测算法 |
3.4 实验及分析 |
3.4.1 实验环境 |
3.4.2 数据集 |
3.4.3 评测指标 |
3.4.4 对比方法 |
3.4.5 实验结果及分析 |
3.5 本章小结 |
4 GAN-BG时序数据缺失值填补模型 |
4.1 引言 |
4.2 问题描述 |
4.3 自编码器 |
4.4 时间序列缺失值填补模型GAN-BG |
4.4.1 生成器架构 |
4.4.2 判别器架构 |
4.4.3 时间序列数据缺失值填充 |
4.5 实验结果及分析 |
4.5.1 数据集 |
4.5.2 评测指标 |
4.5.3 对比方法 |
4.5.4 实验结果及分析 |
4.6 本章小结 |
5 总结与展望 |
5.1 主要研究内容 |
5.2 研究内容展望 |
致谢 |
参考文献 |
(6)基于单张彩色图像的手部姿态和形状估计方法研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 手部姿态算法的研究背景及意义 |
1.2 手部姿态算法的国内外研究现状 |
1.2.1 基于彩色图像的手部姿态估计 |
1.2.2 手部姿态和形状估计 |
1.3 本文的研究内容与结构安排 |
2 相关理论知识 |
2.1 深度学习相关理论 |
2.1.1 深度卷积神经网络 |
2.1.2 3D深度卷积神经网络 |
2.2 MANO手部网格模型 |
2.3 数据集和性能评价指标 |
2.4 本章小结 |
3 基于深度关系信息辅助的 3D手部姿态估计 |
3.1 网络结构设计 |
3.1.1 深度关系向量设计 |
3.1.2 深度关系向量估计模块设计 |
3.1.3 2D姿态和 3D姿态过渡特征 |
3.2 网络训练细节 |
3.3 实验评估与分析 |
3.3.1 深度空间划分方法性能评估 |
3.3.2 深度关系向量估计模块性能评估 |
3.3.3 与其他方法的互对比实验分析 |
3.3.4 复杂度分析 |
3.4 本章小结 |
4 基于MANO模型的3D手部形状和姿态估计 |
4.1 网络结构设计 |
4.1.1 关节点相对关系图设计 |
4.1.2 3D姿态估计器设计 |
4.1.3 3D手部形状和姿态重建阶段设计 |
4.2 网络的训练细节 |
4.3 实验评估与分析 |
4.3.1 3D姿态估计器性能评估 |
4.3.2 3D形状重建效果评估 |
4.3.3 3D形状对 3D姿态性能影响评估 |
4.3.4 与其他方法的互对比实验分析 |
4.3.5 复杂度分析 |
4.4 本章小结 |
结论 |
参考文献 |
攻读硕士学位期间发表学术论文情况 |
致谢 |
(7)基于深度学习的立体匹配算法研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 传统立体匹配算法研究概述 |
1.2.2 基于深度学习的立体匹配算法研究现状 |
1.3 论文研究内容 |
1.4 论文结构与章节安排 |
2 双目立体匹配的理论基础 |
2.1 双目立体视觉的基本原理 |
2.1.1 针孔相机模型 |
2.1.2 双目相机几何模型 |
2.1.3 立体校正 |
2.1.4 立体匹配问题描述 |
2.2 卷积神经网络基础 |
2.3 基于全卷积神经网络的图像分割模型 |
2.3.1 FCN |
2.3.2 U-Net |
2.3.3 SegNet |
2.4 DispNet模型 |
2.5 本章小结 |
3 基于改进DispNet的视差计算网络 |
3.1 引言 |
3.2 基于长短跳跃连接的编解码网络 |
3.2.1 残差网络 |
3.2.2 基于矩阵相乘的代价计算方法 |
3.2.3 网络结构与设计 |
3.3 数据集与评测指标 |
3.3.1 SceneFlow数据集 |
3.3.2 KITTI数据集 |
3.3.3 Middlebury数据集 |
3.4 实验设计与结果分析 |
3.4.1 损失函数 |
3.4.2 实验设置 |
3.4.3 实验结果分析 |
3.5 本章小结 |
4 嵌入scSE模块的视差计算网络 |
4.1 引言 |
4.2 注意力机制 |
4.2.1 空间注意力机制 |
4.2.2 通道注意力机制 |
4.2.3 混合注意力机制 |
4.3 嵌入sc SE模块的视差计算网络 |
4.3.1 并行空间和通道挤压激励模块 |
4.3.2 网络结构与设计 |
4.4 实验设计与结果分析 |
4.5 本章小结 |
5 总结与展望 |
5.1 全文总结 |
5.2 展望 |
致谢 |
参考文献 |
攻读学位期间主要研究成果 |
(8)基于深度学习的低分辨率图像融合算法研究(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 图像超分辨率技术的发展及现状 |
1.2.2 图像融合技术的发展及现状 |
1.3 论文研究内容 |
1.4 本文的结构安排 |
2 图像融合方法及评价指标 |
2.1 基于传统的图像融合方法 |
2.1.1 基于空域的图像融合方法 |
2.1.2 基于变换域的图像融合方法 |
2.1.3 基于稀疏表示的图像融合方法 |
2.2 基于神经网络的融合方法 |
2.2.1 神经网络基本概述 |
2.2.2 基于深度学习的图像融合方法 |
2.3 图像质量评价指标 |
2.3.1 图像主观质量评价 |
2.3.2 图像客观质量评价 |
2.4 本章小结 |
3 无透镜显微成像系统 |
3.1 无透镜显微成像技术 |
3.1.1 无透镜成像采集系统 |
3.1.2 全息恢复处理 |
3.1.3 无透镜全息图像重建仿真模拟 |
3.2 白细胞数据集制作 |
3.2.1 血液样品预处理 |
3.2.2 正常及病变细胞数据集制作 |
3.3 本章小结 |
4 基于生成式对抗网络的图像超分辨率算法 |
4.1 相关理论 |
4.1.1 生成对抗网络原理 |
4.1.2 LSRGAN网络优化改进思想 |
4.2 基于生成对抗网络LSRGAN优化设计 |
4.2.1 网络结构设计 |
4.2.2 损失函数 |
4.2.3 训练策略 |
4.3 实验结果及分析 |
4.3.1 实验环境配置 |
4.3.2 实验训练参数 |
4.3.3 实验效果评价 |
4.4 本章小结 |
5 基于卷积自编码网络的图像特征融合算法 |
5.1 基于卷积自编码网络的图像融合方法 |
5.1.1 自编码融合网络结构 |
5.1.2 损失函数构建 |
5.2 图像检索及诊断 |
5.3 实验结果及分析 |
5.3.1 网络参数设置 |
5.3.2 训练测试数据集 |
5.3.3 融合网络结果分析 |
5.3.4 图像检索诊断结果分析 |
5.4 本章小结 |
6 总结与展望 |
6.1 工作总结 |
6.2 展望 |
致谢 |
参考文献 |
攻读学位期间主要研究成果 |
(10)基于注意力神经网络的Z玻色子标注(论文提纲范文)
摘要 |
Abstract |
绪论 |
1 对撞机物理 |
1.1 对撞机 |
1.2 对撞机物理 |
1.3 喷注聚集算法 |
1.4 喷注亚结构变量N-subjettiness |
2 机器学习 |
2.1 机器学习介绍 |
2.2 交叉领域相关工作 |
3 我的工作:基于注意力的神经网络 |
3.1 神经网络搭建 |
3.1.1 注意力机制 |
3.1.2 模型架构 |
3.2 事件生成 |
3.3 结果分析 |
3.3.1 CNN-0,CNN-1和ABNN的比较 |
3.3.2 堆叠CNN |
3.3.3 不同的平均喷注图 |
3.4 可视化 |
结论 |
参考文献 |
攻读硕士学位期间发表学术论文情况 |
致谢 |
四、基于启发知识的神经网络训练策略(论文参考文献)
- [1]面向GAN生成图像的被动取证及反取证技术综述[J]. 何沛松,李伟创,张婧媛,王宏霞,蒋兴浩. 中国图象图形学报, 2022
- [2]基于表示学习的图像融合算法研究与应用[D]. 李辉. 江南大学, 2021
- [3]面向高光谱图像分类的样本预选方法[D]. 吴少乔. 哈尔滨工程大学, 2021
- [4]基于深度学习的路侧车辆目标视觉检测算法研究[D]. 贾敬森. 重庆邮电大学, 2021
- [5]基于GAN和GRU的时间序列预测和填补方法研究[D]. 王旭磊. 西安理工大学, 2021(01)
- [6]基于单张彩色图像的手部姿态和形状估计方法研究[D]. 韩爽. 大连理工大学, 2021(01)
- [7]基于深度学习的立体匹配算法研究[D]. 张少华. 西安理工大学, 2021(01)
- [8]基于深度学习的低分辨率图像融合算法研究[D]. 李帅军. 西安理工大学, 2021(01)
- [9]基于深度学习的遥感影像超分辨率重建方法研究[D]. 董晓宇. 哈尔滨工程大学, 2021
- [10]基于注意力神经网络的Z玻色子标注[D]. 李靖. 大连理工大学, 2021(01)