一、基于深度图像的建模绘制技术研究(论文文献综述)
赵烨梓,王璐,徐延宁,曾峥,葛亮昇,朱君秋,徐子林,赵钰,孟祥旭[1](2022)在《基于机器学习的三维场景高度真实感绘制方法综述》文中研究说明目前,电影、动漫、游戏等产业对真实感绘制的需求越来越高,而三维场景高度真实感绘制通常需要耗费大量的计算时间和存储空间来计算全局光照,如何在保证绘制质量的前提下提升绘制速度依然是图形学领域面临的核心和热点问题之一.数据驱动的机器学习方法开辟了一种新的研究思路,近年来研究者将多种高度真实感绘制方法映射为机器学习问题,从而大大降低了计算成本.总结分析了近年来基于机器学习的高度真实感绘制方法的研究进展,具体包括:基于机器学习的全局光照优化计算方法、基于深度学习的物理材质建模方法、基于深度学习的参与性介质优化绘制方法、基于机器学习的蒙特卡洛降噪方法等.详细论述了各种绘制方法与机器学习方法的映射思路,归纳总结了网络模型以及训练数据集的构建方式,并在绘制质量、绘制时间、网络能力等多个方面开展了对比分析.最后,本文提出了机器学习和真实感绘制相结合的可能思路和未来展望.
许威威,周漾,吴鸿智,过洁[2](2021)在《可微绘制技术研究进展》文中研究表明可微绘制技术是当前虚拟现实、计算机图形学与计算机视觉领域研究的热点,其目标是改造计算机图形学中以光栅化或光线跟踪算法为主的真实感绘制流程,支持梯度信息回传以计算由输出图像的变化导致的输入几何、材质属性变化,通过与优化及深度学习技术等相结合支持从数据中学习绘制模型和逆向推理,是可微学习技术在计算机图形学绘制技术中的应用的具体体现,在增强/虚拟现实内容生成、三维重建、表观采集建模和逆向光学设计等领域中有广泛的应用前景。本文对可微绘制当前的发展状况进行调研,重点对该技术在真实感绘制、3维重建和表观采集建模中的研究和应用情况进行综述,并对可微绘制技术发展趋势进行展望,以期推动可微技术在学术界和产业界的进一步发展。
叶天博[3](2021)在《视频人体三维姿态估计算法设计与实现》文中研究说明人体姿态估计是计算机视觉领域中目标检测下的子任务,该任务需要从图像数据中提取局部特征信息与抽象的结构化信息,检测图像中的人体目标位置及人体的多个关键点坐标,并由这些关键点连接组成的人体骨架模型描述图像中的人体姿态。本论文的研究针对单目相机拍摄的RGB视频图像序列,尝试预测视频中目标人体的三维姿态与运动过程。对于该任务,本文提出了一种全新的多阶段视频三维人体姿态估计算法框架。该框架对输入视频进行处理,依次完成目标人体检测、二维人体姿态估计以及基于时间序列建模的三维姿态估计。在框架的每个阶段中,本文均将其作为一个子问题进行研究,并在现有方法的基础上有针对性地提出一种全新算法,最终完成流水线式的三维人体姿态估计算法设计。本文提出的算法在公开数据集上相对基线算法有5%以上的提升基于上述算法框架,本文设计并实现了一个三维人体姿态估计系统,该系统接收多种视频流数据格式输入,经过帧率补偿、目标检测进行预处理,再通过算法进行姿态估计,并对结果进行后处理,输出渲染后的三维人体运动动画。
刘志浩[4](2021)在《形状引导的过程式植物建模》文中研究表明植物是现实环境和数字化场景中的重要组成元素。随着计算机图形学技术的日益进步,植物模型被大量应用于电子游戏、影视作品、城镇和园艺设计等场景中。但由于植物通常具有复杂的几何结构,因此如何进行高效逼真的植物建模一直是图形学领域的重要课题。基于规则和数据的植物建模方法往往面临规则参数设置复杂、植物外形不易控制和建模技能门槛高等问题。而现有的交互式植物建模方法虽然支持普通用户设计植物造型,但是大多基于二维草图实现,导致无法推断可靠的三维深度信息。就公开文献来看,本文在国内外首次将虚拟现实与深度学习技术应用于植物三维建模,并根据不同类型的形状约束提出了三种新的植物三维建模方法。这些形状驱动的植物建模方法的共性是用户只需要关注植物的整体外形特征,而逼真的内部植物细节模型则通过过程式建模算法基于外形约束自动生成。本文的主要贡献如下:1.提出了一种二维形状驱动的植物建模方法。该方法结合了深度学习与过程式植物建模技术,通过将从二维推断三维信息的问题转化为图像间的翻译问题,实现了可靠的三维深度估计。首先,该方法使用神经网络从二维的植物轮廓草图和主枝干线条中预测两种特殊的深度图像,并据此恢复植物的三维外部轮廓和主骨架。接着以主骨架为基础,完整的植物模型则通过过程式建模算法在三维轮廓内自动生成。此外,本文还将该方法扩展以解决基于单幅图像的三维植物重建问题。2.提出了一种三维骨架驱动的植物建模技术。该方法作探索了虚拟现实技术在植物建模中的应用。通过使用沉浸式VR设备,结合三维手势实现了对植物骨架的直接三维控制。该系统允许用户使用手柄直接绘制三维的骨架结构,并且支持对植物的任意部分进行灵活的修改和编辑。这种沉浸式的直接三维交互克服了传统建模软件在建模时的繁琐操作。此外,该方法还提供了画刷等高层语义工具来指定植物骨架的生长趋势,用来批量生成植物枝干。3.提出了一种三维轮廓驱动的植物建模技术。该方法结合三维手势,使用更少的交互实现了通过设计植物的三维轮廓来进行交互式植物建模的方法。用户首先将目标植物的树冠区域拆解为若干简单的轮廓包体并用手势逐个绘制,而最终的植物模型则通过过程式建模方法自动生成。该方法的优势在于可以充分发挥人类的观察力和创造力,即用户可以最大限度地将复杂的植物结构抽象为简单的三维几何形状。此外,该方法支持用户用手势来操作和编辑已经创建好的轮廓形状。实验证明本文提出的几种形状引导的植物建模方法能够有效帮助用户进行高效的植物造型创作,并可以充分激发用户的想象力和创造力。
蔡李美[5](2021)在《面向自由视点视频的虚拟视点图像绘制方法》文中研究说明随着视频技术的进步,传统的2D视频正在向自由视点视频方向发展,自由视点视频允许观看者自由的选择观看视点,能够给予观众立体感受,提高观众的沉浸式体验。由于传输带宽的限制,在自由视点视频系统的接收端需要利用虚拟视点绘制技术绘制出目标视点虚拟图像。基于深度图像的虚拟视点绘制技术是自由视点视频中的关键技术,具有速度快,节省带宽等优点,但绘制出的图像仍存在空洞、重叠、伪影、裂缝等问题。为提高目标视点虚拟图像质量,需要对上述问题进行处理。针对双视图像融合前虚拟视点图像中的空洞和重叠问题,利用分层思想将绘制后的虚拟视点图像进行前景和背景分割,对分割后的图像利用基于距离的融合方法分别进行左、右虚拟视点图像的分层融合,得到前景融合图像和背景融合图像,解决重叠问题的同时利用融合后的背景图像指导空洞修复。实验结果表明,该方法与经典的Criminisi算法相比PSNR值提高了1.75d B,能够有效提高绘制图像质量。针对双视图像融合后虚拟视点图像中的空洞和伪影问题,利用背景信息进行后处理。根据视点移动方向定位左、右虚拟视点图像中的伪影区域,利用互补虚拟视点相同位置处的背景信息擦除前景伪影。将参考视点图像引入空洞问题的处理中,利用不同视点参考图像之间存在信息的冗余性,将不同视点参考图像利用深度信息进行融合,利用线性插值方法去除融合后图像中剩余的前景像素,再进行正向映射得到虚拟视点处的背景图处理空洞问题。该方法与基于图像分割的虚拟视点绘制算法相比PSNR值提高了0.636d B,提高了绘制图像质量。
邓志钱[6](2021)在《基于深度学习的高层住宅立面生成设计研究》文中研究说明自从Alpha Go大放异彩之后,人工智能逐渐走进了人们的视野之中。在2020年4月,党中央、国务院更是将人工智能作为“新基建”的一个重要发展方向进行推进。各行各业跃跃欲试,建筑设计行业也积极响应。2020年6月,住建部便批准了深圳率先开展人工智能审图的方案。理论上,人工智能是一类算法的集合,“深度学习”属于其中的一种。尽管深度学习技术已经相当成熟,但其在建筑设计领域的研究才刚刚开始,有很大的研究提升空间。国内高层住宅发展成熟,标准化程度高,有充足且高质量的数据,为其衔接深度学习技术创造了良好的基础条件。此外,很多地产公司也与高校、研究机构开展智能化设计方法的合作研发,反映了行业的生成设计需求。高层住宅立面设计具有一定程式化和重复性特征,也为建筑领域深度学习的起步应用提供了更便捷、可靠的试验场。探究基于深度学习的高层住宅立面生成设计方法及其应用策略,为高层住宅立面设计提供一种新的智能设计方法,提高设计和方案比较的效率,为建筑智能化设计的实际应用做出一点贡献是本研究的初衷。为实现本研究的目标,论文完成了如下研究工作:第一阶段,对建筑生成设计、深度学习和高层住宅立面设计的相关技术及理论进行探究,为本研究建立了必要的理论基础;第二阶段,借助问卷与访谈对当前高层住宅立面设计的现状与生成设计需求展开了调研,为实验设计提供了现实依据;第三阶段,文章提出了一种基于深度学习的高层住宅立面生成设计方法,并从生成设计准备、数据库的建立、生成模型构建和生成结果评价四个方面对该方法进行了详细地阐述;第四阶段,根据前期调研的结果,研究拟定了三种高层住宅立面生成设计实验,以实验的方式对本研究提出的高层住宅立面生成设计方法和生成设计策略展开了探究;第五阶段,研究以一个实践案例对本文提出的高层住宅立面生成设计方法和策略进行演示和验证,并提出相关应用建议。最后,论文对本研究进行总结与展望。论文对本研究提出的高层住宅立面生成设计方法进行了利弊权衡的分析,并就进一步的研究进行了展望。本研究的最终成果是提出了一种基于深度学习的高层住宅立面生成设计方法,并就该方法总结出了三条生成设计策略:人机协同的设计流程、生成设计的创新技巧和主客观相结合的评价方法。在前人的基础上,本研究也实现了一定的创新,主要创新点如下:第一,本研究将“深度学习”与“高层住宅立面设计”进行跨学科整合,拓宽了深度学习技术在建筑设计领域的研究范围;第二,本文对Pix2Pix技术与高层住宅立面设计的结合进行了详细地阐述,具有一定的技术参考价值;第三,立足于国内高层住宅立面设计的现状,本文提出的生成设计方法以实际应用为导向,具有一定的工程实践意义。
李明豪[7](2021)在《基于图像的自由视点合成方法研究》文中指出基于图像的自由视点合成,是指通过计算机视觉技术,利用预先拍摄的一组真实世界图片在未拍摄的新视点合成场景视图,从而实现交互式的三维游览效果,因此也被称为基于图像的绘制(Image-based Rendering,IBR)。相比于传统的几何建模方法,IBR方法不需要复杂的手工调整和模拟计算,便可以生成高质量的新视图。IBR方法根据是否依赖几何先验可以分为两类。依赖几何先验的方法一般需要先使用多视图立体重建(Multi-view Stereo,MVS)算法计算得到场景的几何信息,然后用其指导输入图片进行视图合成。不依赖几何先验的方法则可以直接使用输入图片生成新视图。依赖几何先验的IBR方法在几何信息丰富、准确时表现较好,但几何存在缺失或错误时则会产生伪影,降低视图质量。对于稠密捕获的室内场景图片,由于几何重建完善,目前已有一些方法取得了不错的结果。但室外场景往往包含大量的植被、天空等缺少特征的无纹理区域。即使是目前最先进的MVS方法仍无法在这些区域重建出完整和精确的场景几何。这也导致室外场景目前依然缺乏有效的自由视点合成方法。针对这一问题,本文提出了一种基于深度融合的自由视点合成方法,通过融合MVS深度图和深度学习估计的单目深度图改善室外场景几何,继而提升最终的视图合成质量。在GTAV大型室外数据集上,本文方法得到的融合深度相比于原始的MVS深度,RMSE(Root Mean Square Error)误差降低了 9%,相比于单纯依赖MVS深度传播方法输出的补全深度,RMSE误差降低了 7%。在使用相同MVS源深度时,本文方法相比现有IBR方法,有效地改善了视图合成质量。不依赖几何先验方法的主要研究方向是光场。传统的光场绘制方法需要密集且规整的图像捕获,难以实际应用。近年来,随着深度学习技术的发展,研究人员发现可以用神经网络拟合场景的光线采样,从而隐式地编码输入图片的光场来合成新视图。相比传统光场,神经网络光场(Neural Reflectance Field,NeRF)方法可以用于手持捕获且输入图片较少数量的情况,大大扩展了应用场景。NeRF在拟合光场时需要对每根光线进行采样,其最终的视图质量与有效采样的数量成正比。但是,采样数量的增加也就意味着计算量的增加和效率的下降。目前的NeRF方法仍存在训练时间长,绘制视图慢的问题。针对这一问题,本文提出了一种基于联合采样的NeRF,通过使粗糙网络和细腻网络共享均匀采样结果,减少不必要的光线采样,从而加速网络训练和视图合成。实验证明,在取得与原始NeRF方法近似视图质量的同时,本文方法节省了 20%的训练时间,提高了 25%的视图合成效率。
杜冬[8](2021)在《基于深度学习的简易几何建模研究》文中研究说明随着人们对三维世界的深入认知和计算科学的迅速发展,利用计算机快速有效地表达、生成、可视化以及处理几何形状,已成为三维图形学的主要研究内容。其中,遵循一定的规则获得几何模型,是渲染、动画、分析和制造等下游应用的基础。同时,全民设计制造理念的兴起,尤其是3D打印技术的快速发展,令个性化的三维定制成为可能,无设计制造背景的用户群体也产生了建模的需求。虽然市面上存在许多专业的建模软件,但其功能复杂,需要大量人工操作,建模十分耗时,而培养一个熟练的建模师的成本很高,往往需要数年的学习和积累。为了快速获得三维模型,传统几何重建方法尝试从基于扫描和基于多视角重建两方面入手,先获得物体表面点云,再配准注册,最后重建相应网格模型。然而,这些方法大多依赖数据采集环境,需要额外硬件支持或多张图片输入,不太适用于普通用户。如何简单有效地获得目标形状,是当今三维几何建模研究亟须解决的问题。针对普通用户群体的特性和需求,期望几何建模的交互简单、直观、容错率高,利用尽量少的输入获得尽量复杂且拥有细节的三维模型。经观察发现,利用鼠标绘制二维草图或使用手机拍摄单张照片,对普通用户而言相对容易且非常便捷,但这样的输入稀疏且粗糙,与背后的三维模型之间存在很大的歧义性,导致传统几何优化方法失效。本文通过收集大量数据,基于深度学习的方法去学习二维图片与三维形状之间的映射,并开发出相应的实时交互设计系统,大大减少了建模过程中的人工交互并获得了高质量的网格模型,便于后续应用。根据不同类别的模型特性,本文分别提出了三套简易建模系统:(1)基于手绘草图的有机物体建模系统。以动物头为例的有机物体,往往形态丰富且富有细节。为了设计这类模型,本文提出了一种由粗到精的“视图-表面”联合学习的网格生成框架,先生成整体形状,再增强局部几何细节。具体而言,利用图片编码器提取输入草图的形状特征,联合图卷积网络学习指导模板网格变形以获得初始的形状,再通过可微分的网格渲染器获得初始网格对应的顶点图,并使用图像合成网络生成顶点偏移图以反映几何细节,最后将其反投影到初始网格上并利用图卷积网络进一步优化表面细节。其中,基于视图的细节生成和基于表面的细节优化相辅相成,可迭代进行以获得最佳的网格结果。此外,本文还贡献了目前最大的动物头数据库及其二维草图数据。(2)基于手绘草图的人造物体建模系统。不同于有机模型,人造物体中很大一部分模型由独立部件组成,具有很强的可分性和结构性。因此,本文提出了一种自下而上的“部件-结构”阶段学习的网格生成框架,先基于隐式学习生成各个部件,再通过多层感知机网络回归预测各部件的大小及摆放位置。随着用户依次画出各个部件的草图,实时生成并呈现相应部件的网格形状。当用户完成草图设计时,系统自动学习各部件的结构关系并给出组合结果,同时允许用户进行个性化的调整。该系统避免了繁琐耗时的三维交互摆放,简化了复杂结构物体的建模,同时专注于每个部件形状的生成,提高了几何建模的精度。(3)基于单张图像的物体建模系统。囿于部分用户的绘画能力弱,草图信息过于粗糙和稀疏,基于深度学习生成的模型很难遵循用户意愿。因此,本文提出了一种基于单张拍摄图片、适用于一般物体的建模系统。通过分析体素、点云、隐式表达各自的优缺点,有机结合三种形状表达学习,并设计出可微的端到端学习网络,不仅获得了精确的建模结果,还保证了高效的运行效率。由于三维模型形状丰富且难以获得,导致开源数据集有限。通过分析不同类别物体的领域知识,再结合深度学习,可简单快速获得高质量的三维模型。本文通过大量实验,验证了面向普通用户的三维建模的可行性和有效性。相应的建模系统和训练数据也将开源,促进基于深度学习的几何建模的发展。
钱文华,曹进德,徐丹,吴昊[9](2020)在《非真实感绘制技术研究现状与展望》文中研究指明非真实感绘制技术(non-photorealistic rendering,NPR)主要用于模拟艺术风格、表现艺术特质和传达用户情感等,是计算机图形学的重要组成部分,其研究对象逐渐丰富,研究方法不断创新。本文从基于图像建模的绘制方法、基于深度学习的绘制方法、中国特有艺术作品的数字化模拟、非真实感情感特征识别以及非真实感视频场景绘制等5个方面概述目前研究进展,然后从扩展非真实感研究对象、增强视频绘制帧间连贯性、提取艺术风格情感特征以及评价非真实感绘制结果等4个角度讨论需要进一步研究的问题。针对需要深入研究的问题,指出提高算法的通用性和绘制效率,以及提高深度学习网络的泛化性,有助于扩展研究对象,模拟艺术风格的多样性,同时减小视频场景的帧间跳变;对艺术风格作品具有的情感特征、内在机理特征进行模拟,有助于提高绘制结果与艺术风格图像的相似度;结合主观和客观评价模型,可以更准确地对绘制结果进行评价,同时有利于优化网络模型参数,提高绘制效率。非真实感绘制在计算机视觉、文化遗产保护等领域具有重要的应用前景,但其研究对象、绘制算法、绘制效率仍然存在很多亟待解决的问题,随着硬件设备的不断改进,综合运用学科交叉知识、扩展应用领域将进一步推动非真实感绘制技术的发展。
汤锐彬[10](2019)在《基于三维感知的虚拟视点绘制研究》文中指出人们对视频观看体验的不断追求,使近年来生活中出现了各种新型的视频应用,进而催生了计算机网络技术和音视频技术的不断发展。自由视点视频系统(FVV,Free Viewpoint Video)允许用户自由选择观看视点,带来前所未有的沉浸式互动观看体验。但是该系统需要的数据量也相当巨大,对采集、编码、传输、解码、绘制、显示等各个流程均提出了更高的要求。因此FVV采用基于深度图的绘制方法(DIBR,Depth Image Based Rendering),通过在编码端采集的有限数量参考视点,在解码端绘制任意位置的虚拟视点,极大地降低了FVV传输的数据量。DIBR的核心是利用深度信息来还原拍摄场景的三维空间,进而实现视点映射。本文以提高虚拟视点三维感知质量为主要目的,研究了基于三维感知的立体虚拟视点质量评价方法和基于深度背景建模的虚拟视点空洞填补算法。(1)立体虚拟视点主要包含两大失真类型:单视点绘制失真和立体视点不匹配失真。针对单视点绘制失真,首先提取当前视点失真图与参考图的差异区域,再针对该差异区域计算平均结构相似度指数(SSIM,Structure Similarity),最后将左右视点指数平均池化作为单目纹理特征值;针对立体视点不匹配失真,首先对左右视点失真图分别进行视差映射,再提取映射图与当前视点失真图的差异区域作为双目不匹配区域,然后针对该不匹配区域计算SSIM指数,最后将左右视点指数平均池化作为双目竞争特征值;将两个特征值进行幂次融合,作为立体虚拟视点图像质量评价的客观指标。实验结果表明本方法有效匹配主观平均打分值,皮尔森线性相关系数和斯皮尔曼秩相关系数分别为0.911和0.900,正确反映了立体虚拟视点图像质量。(2)空洞填补是自由视点视频绘制过程中的关键问题。空洞大多位于视觉显着区域,错误地填补将极大降低虚拟视点的主观感知质量。本文提出了一种利用深度背景建模的自由视点视频空洞填补算法。首先对空洞的成因进行深入分析,将空洞划分为暴露区域空洞、结构性空洞和裂纹三种;然后根据深度像素的时域直方图统计特征,构建深度背景模型,分离运动前景和时域稳定的背景,得到深度背景图,并依此构建纹理背景图;接着结合深度信息,将映射到虚拟视点的纹理背景图和当前帧的纹理图进行融合,填补影响主观感知最严重的暴露区域空洞;最后,提出了一种基于深度的图像修复方法来填充剩余的结构性空洞与裂纹。实验结果表明,本文方法有效填补了虚拟视点中的空洞,在绘制质量和时域连续性方面均优于核心对比文献。
二、基于深度图像的建模绘制技术研究(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、基于深度图像的建模绘制技术研究(论文提纲范文)
(2)可微绘制技术研究进展(论文提纲范文)
0 引 言 |
1 国际研究现状 |
1.1 基于自动微分的正向可微绘制技术 |
1.2 基于可微绘制的逆向3维重建 |
1.2.1 基于网格的方法 |
1.2.2 基于体素的方法 |
1.2.3 基于点云的方法 |
1.2.4 基于隐式表达的方法 |
1.3 基于可微绘制的逆向表观采集建模 |
2 国内研究进展 |
3 国内外研究进展比较 |
4 发展趋势与展望 |
(3)视频人体三维姿态估计算法设计与实现(论文提纲范文)
摘要 |
英文摘要 |
第一章 绪论 |
1.1 课题背景 |
1.2 研究内容 |
1.3 攻读学位期间发表的学位论文 |
1.4 论文结构 |
第二章 相关技术介绍 |
2.1 深度神经网络及相关技术 |
2.2 卷积神经网络 |
2.3 循环神经网络 |
2.4 二维图像中的目标检测 |
2.5 二维人体姿态估计 |
2.6 三维人体姿态估计 |
2.7 小孔成像模型与坐标系变换 |
2.8 数据集介绍 |
2.9 本章小结 |
第三章 视频连续帧三维人体姿态估计算法研究设计与评估 |
3.1 引言 |
3.2 算法需求与现有技术分析 |
3.3 算法流程与详细设计 |
3.4 实验设置与评估 |
3.5 实验结果 |
3.6 本章小结 |
第四章 三维人体姿态估计系统需求分析与概要设计 |
4.1 三维人体姿态估计系统需求分析 |
4.2 三维人体姿态估计系统总体设计 |
4.3 三维人体姿态估计系统模块设计 |
4.4 本章总结 |
第五章 三维人体姿态估计系统详细设计 |
5.1 数据预处理功能模块详细设计 |
5.2 三维人体姿态估计模块 |
5.3 数据后处理功能模块 |
5.4 本章小结 |
第六章 三维人体字体姿态估计系统测试 |
6.1 系统测试环境 |
6.2 三维人体姿态估计系统功能测试 |
6.3 数据后处理功能模块测试 |
6.4 系统非功能性需求测试 |
6.5 三维人体姿态估计结果分析 |
6.6 本章小结 |
第七章 结束语 |
7.1 工作总结 |
参考文献 |
致谢 |
作者攻读学位期间发表的学术论文目录 |
(4)形状引导的过程式植物建模(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景 |
1.2 国内外研究现状 |
1.2.1 植物建模技术 |
1.2.2 深度学习技术 |
1.2.3 虚拟现实建模技术 |
1.3 主要研究内容 |
第2 过程式植物建模方法 |
2.1 引言 |
2.2 空间资源竞争算法 |
2.3 顶端优势模拟 |
2.3.1 扩展的BH模型 |
2.3.2 优先级模型 |
2.4 植物几何模型构建 |
2.5 本章小结 |
第3章 二维形状驱动的植物建模 |
3.1 引言 |
3.2 基于对抗网络的植物形状预测 |
3.2.1 训练数据的表示和采集 |
3.2.2 条件对抗神经网络cGAN |
3.2.3 三维形状的恢复和去噪 |
3.3 主枝干和轮廓约束下的植物建模 |
3.4 实验结果与分析 |
3.5 本章小结 |
第4章 三维骨架驱动的植物建模 |
4.1 引言 |
4.2 基于VR控制器的植物骨架控制 |
4.2.1 骨架的三维绘制与编辑 |
4.2.2 骨架画刷工具 |
4.3 实验结果与分析 |
4.4 本章小结 |
第5章 三维轮廓驱动的植物建模 |
5.1 引言 |
5.2 基于手势的植物三维轮廓设计 |
5.2.1 三维轮廓构建方法 |
5.2.2 轮廓形状编辑 |
5.3 实验结果与分析 |
5.3.1 植物建模结果 |
5.3.2 方法对比 |
5.3.3 用户研究 |
5.4 本章小结 |
第6章 总结与展望 |
6.1 本文工作总结 |
6.2 研究展望 |
参考文献 |
作者简历及攻读学位期间发表的学术论文与研究成果 |
致谢 |
(5)面向自由视点视频的虚拟视点图像绘制方法(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题研究背景及意义 |
1.2 国内外研究现状 |
1.3 本文主要工作和贡献 |
1.4 论文组织结构 |
第二章 自由视点视频相关技术 |
2.1 自由视点视频简介 |
2.2 深度图信息及采集方式 |
2.2.1 深度图信息 |
2.2.2 深度图的采集方式 |
2.3 虚拟视点绘制技术分类 |
2.3.1 基于模型的虚拟视点绘制 |
2.3.2 基于图像的虚拟视点绘制 |
2.4 基于深度图像的虚拟视点绘制 |
2.4.1 三维图像变换 |
2.4.2 DIBR中的技术难点 |
2.4.3 双视DIBR技术 |
2.5 本章小结 |
第三章 基于分层图像融合的虚拟视点绘制算法 |
3.1 算法总体流程图 |
3.2 图像分层预处理 |
3.2.1 消除裂缝 |
3.2.2 消除伪影 |
3.3 分层图像融合的视点绘制方法 |
3.3.1 前景和背景分割 |
3.3.2 图像分层融合 |
3.3.3 空洞收缩 |
3.3.4 背景填充 |
3.4 实验结果与分析 |
3.4.1 主观质量对比 |
3.4.2 客观质量对比 |
3.5 本章小结 |
第四章 基于背景信息的虚拟视点图像后处理方法 |
4.1 算法总体流程图 |
4.2 改进的虚拟视点图像融合法 |
4.3 伪影去除 |
4.3.1 定位伪影区域 |
4.3.2 利用互补视点擦除伪影 |
4.4 空洞修复 |
4.4.1 深度图和纹理图物体边缘对齐 |
4.4.2 参考视点图像融合 |
4.4.3 获取背景图修复虚拟视点图像 |
4.5 实验结果与分析 |
4.5.1 主观质量对比 |
4.5.2 客观质量对比 |
4.6 本章小结 |
第五章 总结与展望 |
5.1 工作总结 |
5.2 未来展望 |
参考文献 |
致谢 |
攻读学位期间取得的研究成果 |
(6)基于深度学习的高层住宅立面生成设计研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景 |
1.1.1 人工智能与新基建 |
1.1.2 深度学习与建筑生成设计 |
1.1.3 高层住宅的开发趋势与智能化需求 |
1.2 研究目的及意义 |
1.2.1 研究目的 |
1.2.2 研究意义 |
1.3 相关概念简述 |
1.3.1 深度学习 |
1.3.2 建筑生成设计 |
1.3.3 高层住宅立面 |
1.4 国内外研究现状 |
1.4.1 国外研究现状 |
1.4.2 国内研究现状 |
1.4.3 国内外研究综述 |
1.5 研究目标与内容 |
1.5.1 研究的目标 |
1.5.2 研究的内容 |
1.6 研究方法和框架 |
1.6.1 研究方法 |
1.6.2 研究框架 |
第2章 相关理论及技术 |
2.1 深度学习 |
2.1.1 理论基础 |
2.1.2 工作原理 |
2.1.3 常见生成模型 |
2.2 建筑生成设计 |
2.2.1 历史沿革 |
2.2.2 主流方向 |
2.2.3 与深度学习 |
2.3 高层住宅立面设计 |
2.3.1 发展沿革 |
2.3.2 典型风格 |
2.3.3 主要构件 |
2.3.4 设计原则 |
2.3.5 设计现状调研 |
2.4 关键技术与思路 |
2.4.1 Pix2Pix |
2.4.2 SSIM评价指标 |
2.4.3 生成设计思路 |
第3章 基于深度学习的高层住宅立面生成设计方法 |
3.1 生成设计准备 |
3.1.1 生成目标 |
3.1.2 生成方案 |
3.1.3 设备技术 |
3.2 数据库的建立 |
3.2.1 数据搜集 |
3.2.2 数据处理 |
3.2.3 数据分配 |
3.3 生成模型构建 |
3.3.1 模型搭建 |
3.3.2 模型训练 |
3.3.3 模型形成 |
3.4 生成结果评价 |
3.4.1 主观评价法 |
3.4.2 客观评价法 |
第4章 基于深度学习的高层住宅立面生成设计实验与策略探究 |
4.1 实验前期准备 |
4.1.1 实验背景 |
4.1.2 实验目标 |
4.1.3 技术准备 |
4.2 生成设计实验 |
4.2.1 立面风格对比应用实验 |
4.2.2 立面尺度对比应用实验 |
4.2.3 立面细节对比应用实验 |
4.3 生成设计策略 |
4.3.1 人机协同的设计流程 |
4.3.2 生成设计的创新技巧 |
4.3.3 主客观相结合的评价方法 |
第5章 实际案例应用 |
5.1 设计背景 |
5.1.1 项目简介 |
5.1.2 设计需求 |
5.1.3 技术图纸 |
5.2 立面生成 |
5.2.1 方案设计 |
5.2.2 生成结果 |
5.3 应用评价 |
结论 |
参考文献 |
附录 |
附录 A:高层住宅立面设计调研问卷 |
附录 B:高层住宅立面设计调研访谈表及访谈记录 |
致谢 |
(7)基于图像的自由视点合成方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 研究内容与贡献 |
1.3 章节安排 |
第二章 基于图像的自由视点合成方法综述 |
2.1 早期基于图像的绘制 |
2.1.1 视图插值与纹理映射 |
2.1.2 光场和发光图 |
2.1.3 小结 |
2.2 基于几何先验的方法 |
2.2.1 基于单一全局几何的绘制 |
2.2.2 基于逐视图表示的绘制 |
2.2.3 小结 |
2.3 基于深度学习的自由视点合成 |
2.3.1 结合几何表示和深度学习的方法 |
2.3.2 端到端的深度学习方法 |
2.3.3 小结 |
2.4 本章小结 |
第三章 基于深度融合的自由视点合成 |
3.1 引言 |
3.2 获取MVS深度与滤波 |
3.3 单目深度尺度变换 |
3.4 基于最小生成树的深度融合算法 |
3.4.1 建立图像的最小生成树 |
3.4.2 基于MST的深度融合 |
3.5 合成天空深度 |
3.6 基于超像素扭曲的图像合成 |
3.6.1 超像素扭曲 |
3.6.2 视图合成 |
3.7 实验设置 |
3.7.1 数据集 |
3.7.2 数据预处理 |
3.7.3 实验环境及参数设置 |
3.8 深度结果对比与分析 |
3.8.1 评价指标 |
3.8.2 单目深度转换结果 |
3.8.3 深度融合结果 |
3.8.4 不同方法的深度补全结果对比 |
3.9 视图合成结果对比与分析 |
3.9.1 评价指标 |
3.9.2 视图合成结果对比 |
3.10 本章小结 |
第四章 基于光线采样优化的神经网络光场 |
4.1 引言 |
4.2 神经网络光场 |
4.2.1 光线采样原理 |
4.2.2 网络模型结构 |
4.3 联合采样优化 |
4.4 实验设置与结果分析 |
4.4.1 数据集 |
4.4.2 实验环境及参数设置 |
4.4.3 评价指标 |
4.4.4 合成视图结果对比与分析 |
4.5 本章小结 |
第五章 总结与展望 |
5.1 总结 |
5.2 未来展望 |
参考文献 |
致谢 |
攻读学位期间的学术成果 |
(8)基于深度学习的简易几何建模研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景和研究意义 |
1.2 研究现状 |
1.2.1 基于手绘草图的几何建模 |
1.2.2 基于单张图像的三维重建 |
1.3 研究问题与挑战 |
1.4 本文主要贡献及结构安排 |
第2章 基于不同表达的简易几何建模综述 |
2.1 基于体素表达的几何建模 |
2.1.1 体素表达 |
2.1.2 基于体素的生成模型 |
2.2 基于深度图/法向图表达的几何建模 |
2.2.1 深度图/法向图表达 |
2.2.2 基于深度图/法向图的生成模型 |
2.3 基于参数化表达的几何建模 |
2.3.1 参数化表达 |
2.3.2 基于参数化表达的生成模型 |
2.4 基于点云表达的几何建模 |
2.4.1 点云表达 |
2.4.2 基于点云的生成模型 |
2.5 基于网格表达的几何建模 |
2.5.1 网格表达 |
2.5.2 基于网格的生成模型 |
2.6 基于隐式表达的几何建模 |
2.6.1 隐式表达 |
2.6.2 基于隐式表达的生成模型 |
2.7 基于混合表达的几何建模 |
2.8 本章小节 |
第3章 基于手绘草图的有机物体建模系统 |
3.1 引言 |
3.2 算法设计 |
3.2.1 整体网格生成算法 |
3.2.2 局部细节生成算法 |
3.2.3 端到端的生成网络 |
3.3 数据集构建 |
3.3.1 动物头数据集的构建 |
3.3.2 草图数据集的构建 |
3.4 系统界面设计 |
3.4.1 草图绘制界面 |
3.4.2 模型编辑界面 |
3.5 实验结果与分析 |
3.5.1 视觉结果 |
3.5.2 实验对比 |
3.6 本章小节 |
第4章 基于手绘草图的人造物体建模系统 |
4.1 引言 |
4.2 算法设计 |
4.2.1 部件生成算法 |
4.2.2 部件组装算法 |
4.3 系统界面设计 |
4.3.1 基于部件的多图层草图设计 |
4.3.2 基于部件的空间摆放调整 |
4.4 实验结果与分析 |
4.4.1 实验设计与训练 |
4.4.2 基于整体和基于部件的草图建模对比 |
4.4.3 基于不同表达方式的对部件生成对比 |
4.4.4 基于不同策略的部件组装对比 |
4.4.5 系统鲁棒性分析 |
4.4.6 成果展示 |
4.5 本章小结 |
第5章 基于单张图像的物体建模系统 |
5.1 引言 |
5.2 算法设计 |
5.2.1 算法概述 |
5.2.2 初始体素生成 |
5.2.3 隐式场引导的体素优化 |
5.2.4 面向联合学习的点云生成 |
5.2.5 端到端的联合训练 |
5.2.6 高精度体素生成 |
5.3 实验结果与分析 |
5.3.1 实验设计与训练 |
5.3.2 实验对比 |
5.4 本章小结 |
第6章 总结与展望 |
6.1 本文工作总结 |
6.2 本文工作展望 |
6.2.1 基于传统方法与深度学习相结合的几何建模 |
6.2.2 基于结构学习的几何建模 |
6.2.3 基于新型表达学习的几何建模 |
6.2.4 基于多模态学习的几何建模 |
参考文献 |
致谢 |
在读期间发表的学术论文与取得的研究成果 |
(9)非真实感绘制技术研究现状与展望(论文提纲范文)
0 引言 |
1 非真实感绘制技术研究现状 |
1.1 基于图像建模的艺术风格模拟 |
1.2 基于深度学习的艺术风格转换 |
1.3 中国特有艺术作品的数字化模拟 |
1.4 非真实感艺术效果情感识别 |
1.5 非真实感视频场景绘制 |
2 非真实感绘制技术面临的问题 |
2.1 不同艺术风格的数字化模拟 |
2.2 视频帧间连贯性 |
2.3 非真实感绘制艺术效果的情感识别 |
2.4 非真实感绘制艺术效果的评价标准 |
3 结语 |
(10)基于三维感知的虚拟视点绘制研究(论文提纲范文)
摘要 |
abstract |
引言 |
1 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 立体虚拟视点质量评价 |
1.2.2 虚拟视点空洞填补方法 |
1.3 主要工作和创新点 |
1.4 本文的结构安排 |
2 自由视点视频系统和人类视觉感知特性 |
2.1 自由视点视频系统 |
2.1.1 视频信号的采集 |
2.1.2 DIBR技术 |
2.1.3 虚拟视点失真类型 |
2.2 人类视觉感知特性 |
2.2.1 人类视觉系统 |
2.2.2 视觉感知模型 |
2.3 本章小结 |
3 基于三维感知的立体虚拟视点图像质量评价方法 |
3.1 基于感知的立体虚拟视点图像质量评价模型 |
3.1.1 单目纹理特征 |
3.1.2 双目竞争特征 |
3.1.3 特征融合 |
3.2 实验结果及分析 |
3.3 本章小结 |
4 基于深度背景建模的虚拟视点空洞填补算法 |
4.1 空洞成因及特征分析 |
4.1.1 空洞生成原因 |
4.1.2 深度时域直方图统计特征分析 |
4.2 基于深度的时域稳定背景模型 |
4.2.1 深度背景建模 |
4.2.2 纹理背景建模 |
4.2.3 融合和空洞填补 |
4.3 实验结果及分析 |
4.3.1 实验设置 |
4.3.2 客观评价 |
4.3.3 主观评价 |
4.3.4 阈值选择 |
4.4 本章小结 |
5 总结与展望 |
参考文献 |
在学研究成果 |
致谢 |
四、基于深度图像的建模绘制技术研究(论文参考文献)
- [1]基于机器学习的三维场景高度真实感绘制方法综述[J]. 赵烨梓,王璐,徐延宁,曾峥,葛亮昇,朱君秋,徐子林,赵钰,孟祥旭. 软件学报, 2022(01)
- [2]可微绘制技术研究进展[J]. 许威威,周漾,吴鸿智,过洁. 中国图象图形学报, 2021(06)
- [3]视频人体三维姿态估计算法设计与实现[D]. 叶天博. 北京邮电大学, 2021(01)
- [4]形状引导的过程式植物建模[D]. 刘志浩. 中国科学院大学(中国科学院深圳先进技术研究院), 2021(09)
- [5]面向自由视点视频的虚拟视点图像绘制方法[D]. 蔡李美. 河北大学, 2021(09)
- [6]基于深度学习的高层住宅立面生成设计研究[D]. 邓志钱. 北京建筑大学, 2021(01)
- [7]基于图像的自由视点合成方法研究[D]. 李明豪. 北京邮电大学, 2021(01)
- [8]基于深度学习的简易几何建模研究[D]. 杜冬. 中国科学技术大学, 2021(09)
- [9]非真实感绘制技术研究现状与展望[J]. 钱文华,曹进德,徐丹,吴昊. 中国图象图形学报, 2020(07)
- [10]基于三维感知的虚拟视点绘制研究[D]. 汤锐彬. 宁波大学, 2019(06)