SIGGRAPH 周六:DigiPro 2016

SIGGRAPH 周六:DigiPro 2016


本文译自:fxguide.com

2016年世界图形图像学术大会(SIGGRAPH)开幕前的周六,阿纳海姆的加州迪斯尼大酒店举办了DigiPro大会。接下来的一周,fxguide将会对SIGGRAPH大会进行全程报道。

 

 

 

 

 

 

 

今年已经是DigiPro举办的第四个年头了,大会门票总是被抢购一空。可容纳250-300人的会议,已成为流程TD(技术指导)、研究人员和总监们共同讨论制作问题的场合。大会旨在让已被生产验证和同行评审的作品“在焦点团体”中呈现在“对的人”面前。主办方在短短几年将其办成影响巨大的盛会,值得称赞。


主题演讲:Jason Smith 杰森.史密斯(工业光魔)

主讲人杰森.史密斯是工业光魔的视效总监,他讲述了电影《魔兽》应用的表演捕捉和制作过程中乐观心态的重要性。

史密斯侃侃而谈,引人入胜地讲述了如何在积极创新的同时判识失败的风险。并用工业光魔最近的电影《魔兽》作为透镜,折射出宿命的一问…什么时候冒大险。

他从自身背景讲起,大体勾勒了人生中的几个节点,包括他个人在家闲暇时写的有限元射线追踪系统,设计魔方,以及儿时捣鼓的特效化妆活动。

他会继续提到这些个人经历,并将它们和视觉特效联系起来。比如讲到兽人面部的设计时,他提出,在传统的特效化妆中,专业化妆师不遗余力地要在演员脸上画出自然的皱纹。这意味着妆面可以更轻薄,不会盖住表情。因此在《魔兽世界》中,工业光魔尽力在真人演员的基础上构建兽人。

面部捕捉解决方案。

面部捕捉解决方案。

工业光魔做了8个主要的兽人角色,电影有一半的时间会有兽人出场。所有角色设计得几乎跟人类一样,因此逼近恐怖谷,但是他们又有暴雪的身体比例。工业光魔将兽人的皱纹和褶皱排列到真人演员身上。为了演示,Smith用分画面展现兽人和对应的演员,实体化妆师很明确地告知了数字作品。这样一来,当演员微笑或皱眉时,这个系统不会和表情冲突,而是如工业光魔动画总监Hal Hickel所说的“像对待易碎之物那样将他们的表情发扬光大。”

warcraft-side-by-side-slice-600x200

“他们必须在《魔兽世界》里这么做,因为流程要在不破坏现场演员表情的情况下对太多素材进行自动化。因为预算的原因,我们需要对演员表情进行立即可用的忠实再现”他解释说“而且之后还不能进行大范围清理。”

九阶五魔方有十二面,跟魔方类似。和魔方一样,要解开九阶五魔方,就要让每个面为一种颜色。魔方每个面中间的那一块不能移动,代表该面的颜色。

为了解释这个运算,他拿自己设计九阶五魔方做例子。九阶五魔方是十二面版的传统六面魔方,每个面有四片。九阶五魔方有将近1000个活动零件,而六面魔方只有20个。

2009年,Jason Smith协助制作了世界上第一个九阶五魔方。零件由树脂浇铸,但被模具留下了细小的痕迹和瑕疵,要用砂纸磨光。看上去好像没什么,但其实每个零件要至少3分钟打磨。Smith说,有好几个星期,他每天晚上都在打磨这些小小的树脂零件。他发现任何事乘以1000都是个大工程。这项工程总共用了3000分钟,也就是50小时(用了他十周时间)。

Smith说他从中学到宝贵的一课 ,并运用到《魔兽世界》中,确保750个面部捕捉表情不需要额外对每个镜头进行清理。

“前沿的作品意味着尝试新事物……也就是说实现不知道我们会做什么”

他还在演讲中谈到风险,以及有所回报的尝试必然伴随着风险这个观念。但我们会看轻风险,或者对可能存在的问题报乐观态度从而低估风险。与之相反,不去尝试,不去求新,就是没开始就认输。

“做《魔兽世界》时,我们决定要更上一层楼。即便当时技术上还没有准备好”他解释道,还引用了Ray Bradbury 的话“跳下悬崖,边下坠边学会长翅膀。”

Dennis Muren设定工业光魔风险状况的议程

Dennis Muren设定工业光魔风险状况的议程

Smith说他思考了《魔兽世界》相对于原《侏罗纪公园》的风险,他告诉Dennis Muren 当时他们下决心不做逐格动画的情形。

他说,Dennis几年前就在考虑使用CG技术,但当时时机尚未成熟。他提到时机成熟至关重要,并用《终结者》中photoshop的运用做例子。 “如果没有photoshop处理渲染器的错误(比如车库那场戏终结者肩膀上的4个骨架),他们就没法完成这部电影。”那时的电影摄影机十次只能成功一次。

 

 

“查看一下你能用的工具和人员——足以应付手头上的工作吗?”

Dennis Muren

greysale

以下为面部捕捉的大体步骤:

  • 追踪演员面部的点
  • 把点隔离
  • 拟出嘴唇和眼睑的详细概要,因为眼睑与虹膜相交处的细微差别会造成巨大影
  • 锁住头部(实际上有好几步)
  • 将头部解算到演员的版本上
  • 重新定位到头部或重新定位作为偏移(delta)
  • 调整嘴唇和其他相关的方面,这些地方无法通过直接转移获取。

“我们的工作是进行风险管理”Smith说“我们现在要马上在每个项目中这么做。”

在这场振奋人心的演讲最后,Smith说他不仅对行业的继续发展充满信心,而且相信“我们会成功的。客户找我们是因为这件事真的很难,但没关系。我们最开始做CG就是因为这个。”

注:SIGGRAPH之后,fxguide将发布重磅技术报道,包含工业光魔、维塔和其他参加SIGGRAPH的公司。您也可以阅读 我们对《魔兽世界》的报道 了解更多。


2016Digi-Pro大会回顾

 

从表情捕捉创建演员特定的面部绑定

Yeongho Seol,Wan-Chun Ma和 J.P. Lewis(维塔数码)

1_4_creatinganactor-speci%ef%ac%81cfacialrig

背景

维塔的这篇文章是fxguide在DigiPro大会上最想看到的主要文章之一, 该文与工业光魔这样其他的主旨演讲高度契合。维塔是面部动画方面的全球领军者,旨在最忠实地捕捉演员表情,并将最高频的表情细节转换到重新定位的CG角色上,无论角色是演员的复制还是一个兽人。

有众多企业引领这场面部捕捉、建模、绑定、FACS(面部行为编码系统)解决方案和渲染的“军备竞赛”中。有的企业,如维塔和工业光魔专注于逼真度这个高端业务上,并不考虑实时性(现场操控面部),有的企业专注于面部捕捉,如美杜莎(迪士尼Zurich团队)、 Mova(DD)和USC ICT(专注建模和灯光反应)。马克斯·普朗克铁研究所公司(Max-Planck-Institut für Informatik)团队和南加州大学(USC)的Hao Li团队专注于实时和mono视频源。还有一些视效行业圈外的大公司,如Google、苹果、Oculus和微软正在投资业内团队和研究人员。

2016 SIGGRAPH 是一览业内最新作品的主要场合,像EPIC Games周二晚上的实时现场demo这样的单元不容错过。维塔的演讲引领了今年业内的技术文件,展现了CGI和视效行业所需的对细节精益求精的关注。

演讲

Yeongho Seol 讲到制作电影品质的blendshape面部绑定所遇到的极具挑战性的难题,以及维塔数码的解决方案。制作一个良好的绑定需要手动建模,既耗时,又要有真本事,而最后可能还是不够精确。许多流程将建模和表情捕捉结合。但维塔的方案使用自动工具和高度复杂的解算器做出绑定,这个绑定可被艺术家控制,还能手动细化。维塔着重于高端方案,其内核基于FACS形体。早在设计咕噜这个角色时维塔就开拓性地采用了该方案。

维塔不会透露多机位FACS拍摄时演员需要做多少FACS姿态,但数字大于40。具体数目“取决于绑定和整个项目的目的。blendshape在某些情况下比FACS形状要多得多。”Seol说到。

简言之,该系统:捕捉一个人的各种FACS 姿态,再将一个通用绑定用于该人,通过这种方式提供通用范围的动作,再在特定演员的面部动作上细化。


虚拟现实体验的便携式实时角色绑定

Helge Mathee (Fabric Software),Haux Bernhard(Oculus Story Studio)

Oculus Story Studio来做这个演讲很有趣。Oculus Story Group似乎在皮克斯、梦工厂和一家游戏公司之间游刃有余。他们旨在提供高端叙事片段,但是在要求极其严格的实时VR环境的限制内。

CG角色非常复杂,所以一家工作室的电影和VR环境共享资产情有可原。重新利用资产固然合理,但电影制作和VR实时情境的复杂度及表情要求截然不同。缺少对变形的控制最大缺陷之一,还有IK系统重新定位灵活度不足等动画上问题。

简言之,这篇文章旨在讲述“所做(在DCC应用中绑定和进行动画)即所得(VR体验)”的方式。操作上包括用基于python的Kraken 工具生成可在 Autodesk Maya上运行的绑定,以及提供可在  Unreal Engine UE4的Fabric Engine上执行的版本。在Maya和UE4上运行相同的全绑定,可以保持电影级品质、有相同丰富度和动画控制的的类似角色。

kl

为了制作出便携式角色绑定,团队回过头去看角色绑定通常是怎样制作的。角色绑定主要是由节点构成的大型层级或图表,在Maya这样特定的DCC里实现。用手工或脚本方式构建转换层级,然后由额外节点连接解算方程,如约束、逻辑、数学,或内建在C++里提高速度的用户行为解算器。

多数工作室用高级描述和组建系统构建绑定,将绑定描述为脊椎、手臂和腿这样高级部位的集合。动画师只控制很小一部分节点,图表的任务是解算角色几何变形所需的姿态。

数字内容创作应用上得出的绑定是一个庞大的节点集,为应用专有,不能移到运行环境中。这些绑定非常友好,让动画师在精度和动画表现上有很大掌控力。Kraken (KL) 绑定系统是一个使用 Fabric Engine的开源跨平台绑定框架。它是一个类似却稍有不同方式。用Python的元层构建绑定。绑定师可以定义胳膊或腿这样的高级组建。组建反过来描述底层级的元素,如控制、关节和约束。

sad-henry-1

他们展示了Fabric绑定的角色如何在Epic Games UE4的VR环境中运行。VR开发的关键是Fabric for Unreal 软件和其在UE4的整合。

SIGGRAPH的Fabric Engine用户组将展示Fabric Engine 2.3。

 


如何构建一个人:基于物理的实用角色动画

James Jacobs,Jernej Barbic,Essex Edwards,Crawford Doran,Andy van Straten (Ziva Dynamics)

talk2James Jacobs和 Jernej Barbic(南加大计算机科学副教授)展示了实现肌肉、脂肪和皮肤真实解剖动作的前沿角色动画。

Jacobs凭借组织基于物理的角色仿真框架获得2013年奥斯卡科学与工程奖。如今,他是温哥华Ziva公司的CEO和联合创始人。Jernej Barbic除了是大学教授,还是Ziva公司的CTO,他是有限元分析专家,他们用这种方法实现极佳的体积保持、固定外观和感知肌肉系统。

每块肌肉做成一个生成体网络,附着在其他肌肉和骨骼上。你可以在纤维场上绘制,然后用任意方式将其变成动画,可主动可被动。然后用隐式FEM(有限元建模)解算器解算肌肉。有内置的布料解算器进行高细节皮肤解算。还有碰撞和自碰撞分辨率、非线性材料(真实材料非线性)和各向异性材料。

注:Ziva说的各向异性材料,是说系统的特性而非表面重现,它们在不同方向上作用方式各不相同,跟肌肉一样。

系统有一个全模拟缓存,可以在中断时进行保存,而且让系统具有交互性。

James Jacobs和Jernej Barbic

James Jacobs和Jernej Barbic

输入骨骼动作,软件可以做出肌肉、脂肪和皮肤动作,包括皮肤滑动和高度的细节。该流程假定你是从内而外构建角色,然后骨骼动作会很有真实感。

去年,他们做了一个用照片真实技术制作的人类角色,叫做Adrienne。他们对Adrienne制作过程中用到的工作流程进行了概述,从通过建模(包括功能性磁共振成像)将一名女演员嵌入符合解剖学的身体,到通过最终元方法进行仿真。

基于物理的角色动画系统运用了运算资源,代替了耗尽艺术家心血之作的真实图像和动画。这种操作方法已经在渲染、流体和衣料仿真上广泛运用。Ziva认为这种基于物理和解剖的方法节约了时间,提高了真实度,是其他技术无法比拟的。


带碰撞分辨率的可选动态布料褶皱平整

Arunachalam Somasundaram (梦工厂动画公司)

Somasundaram演示了仿真后在衣料网孔选择性动态探测和平整褶皱的技术。目的是让艺术家可以掌控布料仿真,强化或弱化特定褶皱,清理会使布料起皱的仿真错误,解决平整中会出现的布料相互渗透。这些新技术简单快捷,可以帮助艺术家指导、清理和丰富仿真布料的外观。


Framestore公司采用ACES技术的回顾

Kevin Wheatley (Framestore)

framestore

Kevin Wheatley是Framestore公司图像总监,他概述了Framestore采用 ACES技术的历史,从开始进行的尝试和抵触到最终在剧情片中成功使用ACES cg。这场演讲非常有用,因为它谈到了ACES的理论益处以及ACEScg的实际应用和待解决的问题。

Framestore现在所有从ACES摄像机工作流做出的材料都被转为ACEScg,团队正在不同的色彩空间运作不同的表演。他们可以将RAW文件转成ACES,非ACES的表演也可以转,在标准化的流程中连参考也可以被替换。Framestore的所有表演都在ACEScg内部运作。虽然有人可以说ACEScg要比ACES稍微少一点,但Wheatly指出,从实践上将这点差异不会对流程造成任何影响。

tarzan_epk_filmcliphd

还有一些问题,比如有的供应商(摄像机制造商)并不完全兼容。摄像机制造商可以用“负黑色值”从转移曲线的偏移上隐藏噪音。当然,没有负值。但在《泰山》这样的电影中,将人猿的皮毛与丛林的深色背景相配非常关键。猩猩是深色,它们的皮毛是深色,它们在深色的实景拍摄环境中。但是ACES浮点并不削弱,相反它们变成负值(数学上),因此Framestore公司上游的这些伎俩会造成问题。在该例中,必须保留负值,以逆转输出的逆过程。

另一个问题是,多数数字绘景并不是浮动的,而是日志形式存在于Photoshop中(Adobe完全没有ACES Photoshop流程)。另外,NUKE 10版本以前的版本在所有模式中不支持ACES,对OpenEXR的ACEScg 没有官方支持。


Gaffer:视效开源应用框架

John Haddon, Andrew Kaufman, David Minor, Daniel Dresser, Ivan Imanishi, Paulo Nogueira (Image Engine Design Inc)

Gaffer是Image Engine开源应用框架,建立在其他开源计划框架上。Gaffer的初衷是汇聚一流的视效开源技术,并通过常见的基于节点的用户体验展现基本功能性。Gaffer 用上了许多行业标准库,如OpenEXR,OpenColorIO, OpenImageIO ,OpenShadingLanguage,Cortex,和Alembic。它还为几个渲染技术提供界面,包括开源Appleseed 渲染器,以及获得许可的3delight和Arnold和渲染农场管理软件Tractor。

gaffer

Gaffer 被用于《侏罗纪公园》(3Dlight渲染)

Gaffer是视效制作的开源应用框架,包括基于节点的多线程计算框架和基于QT、用于编辑和查看节点图的UI框架。2007年,John Haddon独立开发了Gaffer框架。2011年开源后,被 Image Engine 使用和扩展。它们对几乎整个 Image Engine流程都至关重要,奠定了 Image Engine开发的所有基于节点系统的基础。

Haddon 如今还在参与工作,他在 Image Engine担任顾问。 Image Engine的团队准备进一步扩展 Gaffer,他们正在调查OpenSubDiv,Open VDB,USD(皮克斯的通用场景描述)和Bullet,并且也在支持更多像V-Ray这样的渲染器。他们甚至还探索了分布式计算和Amazon、 Google这样的云服务。

在公司内部,Gaffer 与他们自己的独立照明工具Caribou一起使用。Caribou目前只能在Maya上用,但今后Houdini 和 Nuke也可以支持。虽然开发它的初衷并不是让它成为专业的合成工具,但除了照明外,它还可以进行自动流程为样片、场记板和/或slap comps排版。它也是渲染农场(如皮克斯的农场管理工具Gaffer feeding Tractor)任务提交管理的关键。

团队还谈到了他们自己的资产管理系统Jabuka,该系统负责Image Engine的质量控制(打包渲染器Profiles)和工作流模板。

2_2_gaffer


大规模视效流程

Andy Wright, Matt Chambers,Justin Israel,Nick Shore (维塔数码)

维塔数码的Andy Wright 介绍了Plow、定制队列、线程调度、工作描述和提交系统。

维塔这些年一直使用皮克斯的Alfred进行线程调度,这段时间,他们已经成功对它进行了改编和扩展。渲染农场扩展极大提高了资源,使人很难在该系统中完全利用机器。这与Alfred的有效生命期一致。鉴于资源利用是需要考虑的主要问题,维塔围绕Alfred开发了极多的工具套件用于定制队列,因此任何新系统都需要有强大的管理层和完整的API进行检查和修改。

维塔也考虑过开源,但是发现开源“非常缺乏scheduler 特性、用户友好的API和用户界面”。最终,维塔没有使用或定制成品,而是从零开始开发一款定制方案。成果就是Plow。该系统基于开放接口开发,提供丰富的数据信息,可用于快速开发工具和图表,让维塔高效驱动他们的渲染农场。

维塔已经有了Kenobi,一个工作描述框架。Kenobi是一个基于节点的脚本和执行框架,用于构建流程。其初衷是抽象发布和执行大规模分布式工作的细节,使流程开发人员专注于核心业务逻辑而非解决常见问题。与此同时,该系统门槛低,以使对开发者要求达到最小化。团队在Kenobi背后开发Plow

2_3_largescalevfxpipelines为保证最大限度使用硬件资源,以及处理对渲染农场基础设施日益增长动态需求,维塔数码开发了自己的定制队列、线程调度、工作描述和提交系统。如今,在大量不一致的任务重,它可以很好地将可用的内核最大化。

渲染农场是维塔视效流程最为重要的高流量组件。除了硬件外,所有渲染农场都需要细致的管理维护,以确保以最高效率运行。就维塔而言,硬件由逾80,000 个CPU内核和维塔GPU资源组成,随着数目增长,其可扩展性也面临挑战。

Plow方案以桌面上的UI 作结,这个UI可以使艺术家有更多掌控,选择性加入或退出渲染农场。满足关键条件才接受任务的自动模式,对具体项目的任务有限制。还有可能最受欢迎的新特性,“可以偏好特定使用者,将其排在第一”Wright打趣到。

最后,艺术家们对结果甚是满意,甚至对以后工作提出建议:

“乍一看复杂——但Wrangler UI工具真是神作!”

“控制的数量很好,统计、整体可见性,等等。蓝图真是一级棒。”

“用树状图最好,或至少对从属关系进行更好的呈现”


视效中的摄像机跟踪——动作结构的行业观察

Alastair Barber (巴斯大学,双重否定视效公司),Darren Cosker (巴斯大学), Oliver James,Ted Waine,Radhika Patel (双重否定视效公司)

摄像机跟踪

摄像机跟踪

Matchmoving(镜头匹配),或称镜头跟踪,该过程非常重要,是视效流程中需要最先完成的步骤之一。Alastair Barber博士与双重否定(DNeg) 一起探究在装置中进行跟踪的本质,以及团队从双重否定的项目中可以学到的东西。

Alastair Barber博士与双重否定(DNeg) 一起探究在装置中进行跟踪的本质,以及团队从双重否定的项目中可以学到的东西。

精确解算摄像机移动非常重要,影响到流程下游的几乎所有步骤。在演讲中,他阐述了一家大型视效工作室的完整流程分析,用的是双重否定公司Shotgun数据库的大型实拍数据集。他也展现了摄像机跟踪线程调度的“方针和准则”。

他们还给出了研究数据,显示出摄像机跟踪的用时和双重否定的作品中最常用的镜头。

例如,每个部门的用时:

vfxbreakdown

每个部门的时长

上面可以看到不同视效流程的时长,“合成”是主导,但该演讲的主题“摄像机跟踪”被标红。数据来源于6部正片长度电影时长的总和,双重否定担任是这些电影的唯一或主要视效商。

数据显示,视效总时长的5%-10%为摄像机跟踪。

研究根据每帧应解算的镜头长度对这些摄像机跟踪进行划分。(时长用“工时”计算,即每个专业熟练的视效师完成按镜头帧数划分的工作所需的实际时间)这些数值记录在双重否定的 shotgun系统中。

显示许多镜头每帧需要5到10分钟解算。

显示许多镜头每帧需要5到10分钟解算。

显示(红线)50%的时间用于解算每帧需要25分钟的镜头。

显示(红线)50%的时间用于解算每帧需要25分钟的镜头。

图2之所以有趣,不仅仅是因为超过一半的时间用于解算每帧超过25分钟的镜头,还因为有大量一帧超过60分钟的镜头,而最难的甚至达到令人咋舌的75.4 分钟每帧。

这也带来一个问题,即什么是“解算完成”的摄像机跟踪?双重否定和多数公司一样,答案很主观,艺术家们在镜头上:

  • 虚拟锥体或重叠球体
  • 真实Lidar 几何重叠
  • 代理几何体,如镜头上的一般人类模型,它们被变成动画,以查看到最后会不会大概保持合适的尺寸。

有趣的是,在一般的研发社区, 2d/3d/2d 再投影系统并未应用在视效中。

Barber查看了一系列指标,如摄像机速度、遮挡短寿命和镜头是否有LIDAR或其他镜头信息。他检查了镜头的类型(变形呼吸让看上去简单的镜头变得非常复杂)以及全景的节点运动。查看多个平均解算时间后,结果出人意料。例如,球面镜头跟踪的平均结算时间是变形镜头的两倍。有LIDAR的镜头平均用时更长。

所以他的许多结果是有违直觉的,但原因很简单。双重否定是一家经验丰富、运作良好的公司,它知道怎么做镜头,所以如果镜头很难,他们会投入最得力的人手。会确保他们有所需的数据、LIDAR扫描件和其他信息。大变形镜头很难移动,所以基本不可能在手持式的复杂镜头中使用。这样,硬的推轨镜头几乎总用在轻量级优质球状镜头上。

其相关性不明显,反映出团队的经验。Barbers无意中强调了项目总结的重要性,以及个人很容易在没有审视先前工作结果的情况下对工作错误估计。

Barber还延伸讲到视差、视觉质感、照明和点遮挡都是摄像机跟踪的关键。但所有员工有一样的技术能力、项目无需动态适应这些预估问题的说法可能是不对的。即便说明了镜头类型的影响、摄像机运动的局限以及调查数据的级别,相似速度的镜头在解算时间上的差异非常大。提升镜头匹配速度最有用的信息是记录2D特性的精确的3D场景信息。


在多维度参数空间中寻找有趣的事

Andy Lomas

cellularform17_0007_0025Andy Lomas 展示了他革命性的艺术作品,探索了演进和机器学习。一开始,他做的是个人过程,打造出惊艳的有机外形演进元素,看上去就像从微扫描器直接出来的。

Lomas之前在Foundry公司,他的演讲带来了全新视角:有人用视效工具从事不同寻常的有机艺术。

最近在伦敦有他的展出,可以在www.andylomas.com查看他的作品。

 


《森林王子》:丰富环境中艺术指导的过程散射

Stefano Cieri, Adriano Muraca,Alexander Schwank,Filippo Preti,Tony Micilotta (MPC)

jungle-book

点击查看大图

迪士尼的《森林王子》要求MPC做出逼真、有机和复杂的丛林环境。MPC开发了一个几何分布器,供艺术家处理大量非常不同的CG场景。分布器使用了逾800个镜头来散射元素,从碎片到一整棵树。

每个对象的属性可配置,由过程着色器和定制地图进行分布。演讲描述了系统的工作方式,展示了工作流程的效率。

MPC在创作《森林王子》的初期构想出这套散射系统,当时他们意识到环境艺术家需要一个方案来简单快速地用细节和变化尺度来填充场景。开始开发前,他们进行了一次广泛调查,调查了研究领域和商业、开源及现成的方案。

最常见的策略涉及过程方法和点取样法。团队还查看了粒子法,如Animal Logic公司在《乐高大电影》中使用的。团队查看的一个与众不同,但令人影响深刻的方法是Inigo Quilez在皮克斯用的Wonder Moss。该技术用于电影中有植物、苔藓和细节的场景,是渲染时直接开发的。该技术对团队而言尤为有趣,因为它可以用作图层,包装任何可以渲染的几何体,并且无缝混合不同种类和尺寸的元素。尽管这种方法很有效,但对于MPC而言,它的缺点是需要经验丰富的程序员调整渲染过程的代码来处理视觉反馈。他们也查看了确定的制作和成品工具,如Houdini,Clarisse,和Maya的 XGen。

MPC的散射方案旨在结合过程分布的灵活性和艺术指导所需精细控制。它的散射原则旨在让艺术家可定义所使用的参数,保持最高的抽象和概括。根据所需的散射行为,艺术家可以在控制随机化时,将分布准则转变为着色器和地图。MPC环境艺术家的主要用的是Maya,所以团队使用了Maya现成的API,将其整合进MPC的流程中,缩短开发时间。

在PRman渲染器上,Scatter非常高效,用定制REYES着色器生成点云。流程提供:

  • 一个无缝解决方案(团队成员可以不选作过程)
  • 与环境的视觉融合
  • 与MPC现有工具和工作流程的工具集成

已用于超过800个镜头,现已在MPC的其他作品中使用。

指南:

  • 一个简单场景需要1天
  • 一个常规几何需要1-2周
  • 一个典型散射有几千到几百万元素
  • 很重要的是,数值不取决于规模。

下一步,MPC想在Maya和一个独立工具中用Fabric Engine做可视化。


VR电影《Allumette》中的容积云

Devon Penney (Penrose工作室)

clouds

《Allumette》是一部沉浸式VR电影,视觉效果丰富,感性细腻。故事发生在一座浮在云间的城市。

故事在观众身边展现,因此观众可以从任何角度感受VR云朵。这意味着Penrose工作室的团队要创建一座云中之城,让人们可以四处走动,从各个角度观看,正如Devon Penney在演讲中说的:VR电影《Allumette》中的容积云。

这种场景对于传统的动画电影来说是一个巨大的挑战,团队有大量的资源,要用好几个小时渲染每一帧,实现沉浸式VR云的观感可谓是一片未知领域。现有的实时云轻量级技术,如用带有半透明映射的几何壳以及局部修改法,在VR中的质量和性能都很地下。

Penney说,在《Allumette》的制作中,他们一开始为云建模是用专有的建模工具绘制云壳,然后用第三方过程建模包制作和点亮云体素格网。最终,这些格网以自定义文件格式导出,并在游戏引擎中用 ray marcher渲染。得出的云每眼需要6毫秒渲染,让观众沉浸在云中之城里。Penney展现的影像美轮美奂,又极其有效。他甚至还演示了一段画面,一个控制者“手”举火炬,实时在云间移动,照亮云体。

前后对比

前后对比


特效动画《爱丽丝梦游仙境2:镜中奇遇记》的跨部门协作

Joseph Pepper,Klaus Seitschek,Ian Farnsworth,Cosku Turhan,Chris Messineo,Lee Kerley (索尼图像工作室)

《爱丽丝梦游仙境2:镜中奇遇记》对特效动画团队提出了很多挑战,他们举了两个主要的例子:时间海和分崩离析的时间的“生锈”。

时间海

“时间海”是完全由电脑生成的环境,是电影中时间旅行的基础。爱丽丝穿越时间海用的是“超时空魔球”,她可以提出要去的时间和地点,以拯救 Hatter,让他和家人重聚。它代表这些目的时间和地点之间的空白或边缘,被简单地诗作“一片由过去的图像形成的海。”

进过一段时间的概念探讨后,时间海的设计定为一片分为两层的广阔海洋,“地面”和“天花板”是波涛汹涌的沙丘状海浪。靠近这些海浪表面的地方生活着“回忆”。

这些回忆主要来自《爱丽丝梦游仙境1》的画面和片段,或者《爱丽丝梦游仙境2》前面出现过的内容。当爱丽丝穿越回过去时,大海会显示出时间越来越往前的片段。

有两个流程对时间海造成障碍

  • 将爱丽丝过去的一连串图像以原始自然的方式整合到大海中,且不需要大量额外气缸和布局。
  • 使用特效部门的工具和技术构建这片广阔的海洋,且有利于进行复杂的仿真,但同时反馈迅速,且动画指导和视效总监和客户编排动作时有控制力。

流程结合了Maya和Houdini,在SPI自己的Arnold(带OSL着色器)中渲染。Houdini引擎是关键,时间海的镜头用了Pattern Create——Katana用的模式生成工具。这大大减少了人工纹理绘画的量。

因为回忆必须来自一个尚未出现的世界,所以关键是采用自动的跨职能方式。立体声片段通过Foundry的立体声设备提供运动向量。运动向量意味着,如果角色转过头,运动向量可以改变液体仿真,制造波浪。如果几乎是投影在波浪上的“疯帽子”砖头——他的图像会搅动海水,然后消散到水里并扬起水花。

对片段进行处理(上)以得到运动向量集 可以提供给模拟,以制造(和着色)波浪(右)

对片段进行处理(上)以得到运动向量集 可以提供给模拟,以制造(和着色)波浪(右)

waves

 

 

 

 

 

 

 

定制翻动模拟意味着不仅“疯帽子”往一边看时可以制造出波浪和泡沫,还可以染成血色。回忆会抽取颜色,仿佛它们就是水的颜色一样。像回忆的波浪会制造波浪,并给它们上色。为了让镜头有说服力,整个一组镜头都有光追踪,采用体积和次表面写实渲染效果。

对于汹涌的大海,整个海洋表面都在世界空间里作为一个FLIP 模拟,区域仅用于将大片海洋细分成更易处理的若干波分。为了实现这样的世界空间模拟,FLIP DOP 网络里做了一个目标设置。FLIP 粒子在深水下变成“弹道的”。明确设定速度后,这些深处的弹道粒子锁定到波浪和布局几何体的起伏上,不受FLIP解算的影响。

同时,靠近表面的粒子变得越来越不“弹道”,不受FLIP解算的影响。实际上,它们是被深海的涌浪带动的。表面的非弹道粒子同样被回忆片元数据中提取的向量场推动,产生波浪、水花和二级水花流,在Arnold中被图像工作室用Houdini中的“vdbSpeck”工具作为体素渲染。

团队对DigiPro 的观众说,鉴于有大量模拟和运动向量图像,这段镜头使用了1PB数据。

alice

 

生锈

在原作有一句话:“然后一切锈掉了。”

《爱丽丝》中的生锈是爱丽丝在电影中时间旅行时无意中对地下世界带来的影响。爱丽丝越进行时间旅行,人物周围的世界越衰败,因为时间结构被越来越多地打乱。这在视觉上就是一个有意识、流动的实体,包含一切事物,从人物、物品房间到城堡、景物甚至天空。

动画部门负责镜头里生锈的时间和安置。对于这股将一切扼杀在摇篮里的邪恶力量,有一个明确的方向来展示意识特性。仿佛攻击任何靠近的人。因为生锈的物理模拟和过程几何非常广泛,所以在前端呈现锈迹最简单的方法就是在Maya中使用定制曲线工具。该工具是《蜘蛛侠》蛛网工具的直接分支。

曲线一旦生成,可以导出用于特效部门。在Houdini定制化FLIP中,当曲线沿着动画定义的路径增长时会触发液体模拟。不像常规液体,锈迹液体可以爬墙,以及悬挂在天花板上。此外,解算器内的始终可以在一定生命周期后冻结锈迹模拟粒子。

对于额外的生锈几何体,SPI使用了Arnold的“源副本”技术。与渲染时将多个相似几何体的复制载入场景构建不同的是,源副本可允许特定对象上的转化数据规格,只在内存中保留一份拓补结构。这意味着他们可以在场景构建中用最小开销渲染数百万几何鳞片和贝壳。所需要的仅仅是一个有相关转换数据的点云。

最终,SPI制作生锈镜头用了600万渲染小时和2年的工作。

生锈概念拼图的最后一块是“去锈”。为实现这一独特的“撤销”效果,团队再次从多部门工作流程视角应对这一问题。对于电影制作者来说,对人物和环境“去锈”时机和进程进行可视化至为关键。

为实现这点,团队设置了一个新的工作流程来得早日到布局和动画部门的批准和快速周转。布局用Maya里的有色光将“去锈”的过程和速度可视化。基于这一最初的时间设定,动画师接过工作,加入“英雄”曲线进行特写因素或任何特别需要界定去锈时机和安置的领域。《爱丽丝》中任务的去锈是一个很好的例子,动画部门勾勒出去锈过程,对时机的验收也很早。

时间海和生锈效果镜头仅仅是《爱丽丝梦游仙境2:镜中奇遇记》视效工作的一小部分。他们将其他工作算在一起,得出这部电影的数量级是图像工作室以前做过的最大一个项目的4倍。


图片来自会议

 

The conference was sold out- again

The conference was sold out- again

digipto-7

Sam Assadian, Isotropix CEO and Founder

digipto-11

David Morin and Xavier Desdoigts

 

 

 

 

 

 

digipto-16

Per Christensen

Per Christensen

digipto-13

 

 

 

 

 

Tone mapped HDR of the Conference Hotel for DIgiPro2016

Tone mapped HDR of the Conference Hotel for DIgiPro2016

 

本站已委托维权骑士进行维权,禁止一切形式的转载。
翻译校对难免会有纰漏,欢迎指正。
加入CG小宇宙Slack平台点击 交流