Download as pdf or txt
Download as pdf or txt
You are on page 1of 43

计算机辅助的

动画中间画面生成技术
Computer-Aided Animation Inbetweening

汇报人:切糕
目录
• 1 背景介绍 • 6 运动轨迹确定问题
• 2 两种比较常见的处理思路 • 线性轨迹
• 对数螺旋轨迹
• 3 Stroke-Based算法的三个步骤
• 7 几篇文献所用技术的介绍
• 4 特征点 • ARAP
• Shi-Tomasi • CACAI
• SIFT • Graph-TL+DML
• Shape Context • BetweenIT
• 5 笔划匹配方法 • AnimeInterp
• 直觉性度量 • 8 总结与思考
• 置信矩阵

2
1 背景介绍
• 几个基本概念
• 原画:在一段动画中,作为一个动作起点与终点的关键画面,一般情况
下由二值线条绘制而成
• 中间画:按照动画的运动规律,在连续两张原画之间添加的,用于表现
原画之间运动过程的画面

• 解决什么问题?
• 中间画面的绘制往往由人工完成,耗时耗力,所以希望使用计算机的计
算能力进行辅助,全自动或半自动地生成中间画面,从而节省人力成本,
也能使动画师将更多精力投入到原画的绘制中

3
1 背景介绍
• 原画和中间画

• 插入中间画的过程也
被称为“中割”

• 常说的“自动中割”指的
就是使用计算机生成
中间画面

4
1 背景介绍
• 目前仍然师行业中的一个重要问题
• 市面上缺少相关的软件
• Adobe Animate的自动形状补间功能无法满足生产需要
• 商业软件CACAni对原画绘制的流程有极大限制(要求一对一绘制线条)
• 一般视频插帧算法(如Adobe Premiere的光流补帧)存在“伪影”

5
2 两种比较常见的处理思路
• 将动画看作视频的一种,按照视频处理的思路考虑中间张生成
• 通常称为视频插帧(Video Interpolation)
• 主要分为两个大的步骤:
• 光流(Optical Flow)估计
• 图像扭曲与合成(Wrapping and Synthesis)
• 估计光流场是为了预测图像的运动场,需要足够的数据集,需要训练模型
• 涉及机器学习、深度学习方法
• 将动画看作由清晰线条和色块组成的连续图像,使用图形处理的思路生
成中间形状
• 通常称为动画补间(Animation Inbetweening)
• 算法类型可以分为两大类
• 基于图形的(Image-based)算法
• 基于笔划的(Stroke-based)算法

6
3 基于笔划算法的三个步骤
• 基于笔划的:Stroke-based
• 主要分为三个大的步骤:
• 笔划对应
也叫做对应关系构建(Correspondence Framework Construction)
包括:线对应,点对应,特征点识别,相似度量选择……
• 运动预测
运动轨迹的具体计算方式
旋转、平移和缩放的复合,线性轨迹,对数螺旋……
• 中间画面的生成
笔划的拼接、扭曲……

7
4 特征点
• Shi-Tomasi角点检测
• SIFT特征点匹配
• 形状上下文

8
4.1 Shi-Tomasi角点检测 http://t.csdnimg.cn/vnexQ
Harris角点检测原理详解

• 角点:线条转折较大的点、线条间的交点
检测原理:通过一个窗口的滑动,判断区域内像素亮度值的变化,从而判断
是否为角点
• 像素点亮度变化公式:
2
𝐸 𝑢, 𝑣 = ෍ 𝑤𝑥𝑦 𝑖𝑥+𝑢,𝑦+𝑣 − 𝑖𝑥,𝑦
𝑥∈𝑋,𝑦∈𝑌

• (𝑤𝑥𝑦 通常取二元正态分布权重)

9
4.1 Shi-Tomasi角点检测
由于角点不应依赖于窗口滑动幅度,对公式进行变形:
2
𝐸 𝑢, 𝑣 = ෍ 𝑤𝑥𝑦 𝑖𝑥+𝑢,𝑦+𝑣 − 𝑖𝑥,𝑦
𝑥∈𝑋,𝑦∈𝑌
2 2
𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦
≈ ෍ 𝑤𝑥𝑦 𝑖𝑥,𝑦 + 𝑢 +𝑣 − 𝑖𝑥,𝑦 = ෍ 𝑤𝑥𝑦 𝑢 +𝑣
𝜕𝑥 𝜕𝑦 𝜕𝑥 𝜕𝑦
𝑥∈𝑋,𝑦∈𝑌 𝑥∈𝑋,𝑦∈𝑌
2 2
𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦
𝜕𝑥 𝜕𝑥 𝜕𝑦 𝑢 𝜕𝑥 𝜕𝑥 𝜕𝑦 𝑢
= ෍ 𝑤𝑥𝑦 𝑢, 𝑣 = 𝑢, 𝑣 ෍ 𝑤𝑥𝑦
𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦
2 𝑣 𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦
2 𝑣
𝑥∈𝑋,𝑦∈𝑌 𝑥∈𝑋,𝑦∈𝑌
𝜕𝑥 𝜕𝑦 𝜕𝑦 𝜕𝑥 𝜕𝑦 𝜕𝑦

10
4.1 Shi-Tomasi角点检测
• 进一步对矩阵特征值进行讨论:

𝜕𝑖𝑥,𝑦 2 𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦


𝜕𝑥 𝜕𝑥 𝜕𝑦
• 令𝑀 = σ 𝑤𝑥𝑦 2
𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦 𝜕𝑖𝑥,𝑦
𝜕𝑥 𝜕𝑦 𝜕𝑦

𝜆1 0
• 正交变换:𝑀 = 𝑃 𝑃𝑇
0 𝜆2
• 讨论根据特征值确定像素点状况

11
4.2 SIFT特征匹配 http://t.csdnimg.cn/nc6Yu
图像特征匹配方法——SIFT算法原理及实现

• 关键点匹配——SIFT特征匹配
• 检测尺度空间极值:使关键点对尺度变换稳定
• 关键点主方向分配:使关键点对旋转稳定
• 关键点特征描述:使关键点能顺利匹配

12
4.2 SIFT特征匹配
• 检测尺度空间极值
• 高斯函数𝐺 𝑥, 𝑦, 𝜎 与图像
𝐼 𝑥, 𝑦 卷积构建高斯金字塔
𝐿 𝑥, 𝑦, 𝜎 = 𝐺 𝑥, 𝑦, 𝜎 ∗ 𝐼 𝑥, 𝑦
𝑚 2 𝑛 2
𝑥− 2 + 𝑦− 2
1 −
𝐺 𝑥, 𝑦, 𝜎 = 𝑒 2𝜎2
2πσ2
𝑜−1
𝑠+ 𝑂 −1
𝜎 𝑠, 𝑜 = 𝜎0 2
𝑜 = 1,2, … , 𝑂 , 𝑠 = 1,2, … , 𝑆

13
4.2 SIFT特征匹配
• 通过上下层差分,构建高斯差分金
字塔,并对极值点进行搜索:
𝐷 𝑥, 𝑦, 𝜎
1
= 𝐺 𝑥, 𝑦, 2𝑂 𝜎 − 𝐺 𝑥, 𝑦, 𝜎 ∗ 𝐼 𝑥, 𝑦
1
=𝐿 𝑥, 𝑦, 2𝑂 𝜎 − 𝐿 𝑥, 𝑦, 𝜎

• 保证在尺度空间和邻域内都成为极值点

14
4.2 SIFT特征匹配
• 计算关键点邻域各像素点的梯度大小和方向:
• 𝑚 𝑥, 𝑦 = 𝐿 𝑥 + 1, 𝑦 − 𝐿 𝑥 − 1, 𝑦 2 + 𝐿 𝑥, 𝑦 + 1 − 𝐿 𝑥, 𝑦 − 1 2

𝐿 𝑥,𝑦+1 −𝐿 𝑥,𝑦−1
• 𝜃 𝑥, 𝑦 = arctan
𝐿 𝑥+1,𝑦 −𝐿 𝑥−1,𝑦

• 对角度进行直方图统计
直方图峰值代表主方向
大于主方向80%的方向为辅方向

15
4.2 SIFT特征匹配
• 为每一个特征点分配一个描述符:
选取特征点周围4 × 4个子区域,每
个区域作为一个种子点,每个种子
点有8个方向,使用主方向𝜃对子区
域的每个点进行旋转:
𝑥𝑛𝑒𝑤 cos 𝜃 −sin𝜃 𝑥𝑜𝑙𝑑
𝑦𝑛𝑒𝑤 = 𝑠𝑖𝑛𝜃 𝑐𝑜𝑠𝜃 𝑦𝑜𝑙𝑑
• 通过在欧氏空间对得到的128维特征
向量进行比对,实现特征点的匹配

16
http://t.csdnimg.cn/GegPf
4.3 形状上下文 论文阅读笔记
《Learning to propagate labels: Transductive
propagation network for few-shot learning》

• 形状上下文:Shape Context
• 形状匹配的分类
• 基于特征(Feature-based)
傅里叶变换、特征点、骨架
• 基于亮度(Brightness-based)
使用图像的灰度值进行形状匹配
• 由于原画基本都是二值纯色线条的组合,缺少灰度信息,所以不
能使用基于亮度的匹配方法
• 形状上下文是一种基于特征的描述子
17
4.3 形状上下文
• 为一个图形中的所有的特征点分配一个描述子
• 对前后两张图像的形状P,Q的特征点 𝑝1 , … , 𝑝𝑛 , q1 , … , 𝑞𝑚 计算
局部形状上下文,计算方法如下:
• 对点𝑝𝑠 ,计算其与周围点的欧几里得距离,记其最近点𝑝𝑧
• 使用向量𝑝𝑠 𝑝𝑧 作为其局部坐标系的𝑥轴方向,将该方向逆时针旋转𝜋/2
得到局部坐标系的𝑦轴方向

18
4.3 形状上下文
• 对𝑝𝑠 周围所有特征点进行对数极坐标变换(Log-Polar
Transformation)
𝑥 − 𝑥0 2 + 𝑦 − 𝑦0 2
d 𝑝𝑠 , 𝑝 = log
𝑚𝑒𝑎𝑛
𝑦 − 𝑦0
𝜃 = arctan
𝑥 − 𝑥0
其将𝑝𝑠 所在的局部区域划分为12个角度区域以及5个距
离区域
• 对周围点进行直方图统计,计算每个区域中点的数量,
并对直方图进行归一化处理,得到𝑝𝑠 的60维特征
𝐼 𝑝𝑠 = 𝐼1 𝑝𝑠 , … , 𝐼60 𝑝𝑠
19
4.3 形状上下文
• 对于前后两张图像中的每一个点,都有𝐼 𝑝𝑠 , 𝐼 𝑞𝑟 ,则它们的相似度度
量矩阵计算如下:
60
1 𝐼𝑘 𝑝𝑠 − 𝐼𝑘 𝑞𝑟 2
𝐶𝑠𝑟 = ෍
2 𝐼𝑘 𝑝𝑠 + 𝐼𝑘 𝑞𝑟
𝑘=1
此时得到关于形状上下文的相似度度量矩阵

• 由于前后两张图像的特征点数量可能不相等,所以一般使用“伪点策略”
对点的数量进行补全,从而保证上述矩阵是方阵

20
5 笔划匹配方法
• 在对两张原画的笔划或特征点进行划分后,可以使用如下两种
方法建立起笔划之间的对应关系:
• 直觉性度量(损失函数)
• 置信矩阵(传导推理)

21
5.1 直觉性度量
• 旨在通过一个损失函数来衡量笔划与笔划之间的相似度
• 一个具体的例子:
𝒟 𝑆𝑖1 , 𝑆𝑗2 = 𝒟ℙ 𝑆𝑖1 , 𝑆𝑗2 + 𝒟𝕊 𝑆𝑖1 , 𝑆𝑗2 + 𝒟𝕍 𝑆𝑖1 , 𝑆𝑗2
其中𝒟为笔划差异,
𝒟ℙ 为位置差异
𝒟𝕊 为弧长差异
𝒟𝕍 为视觉效果差异
值越大,越说明两个笔划不匹配

22
5.1 直觉性度量
• 一个具体的例子:
𝒟 𝑆𝑖1 , 𝑆𝑗2 = 𝒟ℙ 𝑆𝑖1 , 𝑆𝑗2 + 𝒟𝕊 𝑆𝑖1 , 𝑆𝑗2 + 𝒟𝕍 𝑆𝑖1 , 𝑆𝑗2
• 𝒟ℙ 𝑆𝑖1 , 𝑆𝑗2 = 𝜃 𝑃 𝑆𝑖1 − 𝑃 𝑆𝑖,𝑐
1
, 𝑃 𝑆𝑗2 − 𝑃 𝑆𝑗,𝑐
2
表示笔划𝑆𝑖1 和其某侧笔
1
划𝑆𝑖,𝑐 的中点连线,以及笔划𝑆𝑗2 和其同侧笔划𝑆𝑗,𝑐 2
的中点连线的夹角
max 𝐿 𝑆𝑖1 ,𝐿 𝑆𝑗2
• 𝒟𝕊 𝑆𝑖1 , 𝑆𝑗2 = 。其中𝐿表示笔划的长度
min 𝐿 𝑆𝑖1 ,𝐿 𝑆𝑗2

• 𝒟𝕍 𝑆𝑖1 , 𝑆𝑗2 = σ𝑓𝑜𝑟 𝑎𝑙𝑙 𝑆𝑃 Δ 𝑆𝑃1 , 𝑆𝑃2


• 𝑆𝑃1 和𝑆𝑃2 表示笔划对应的突出点
1
• Δ 𝑆𝑃1 , 𝑆𝑃2 = ‫׬‬0 𝐼1 𝑡 𝑅 − 𝐼2 𝑡 2 d𝑡

23
5.2 置信矩阵
• 使用基于图的传导推理(Graph-based Transductive Learning)
• 具体公式:
2
𝑥𝑖 − 𝑥𝑗
𝑊𝑖𝑗 = exp −
2𝜎 2
𝑛 2 𝑛
𝐹𝑖 𝐹𝑗
𝑄 = ෍ 𝑊𝑖𝑗 − + 𝜇 ෍ ‖𝐹𝑖 − 𝑌𝑖 ‖2
𝑖,𝑗=1
𝐷 𝑖𝑖 𝐷 𝑗𝑗 𝑖=1
𝑆 = 𝐷−1/2 𝑊𝐷−1/2
𝐹𝑘+1 = 𝛼𝑆𝐹𝑘 + 1 − 𝛼 𝑌

24
5.2 置信矩阵
2
• 𝐹是置信矩阵,𝐹𝑖 为𝑥𝑖 属于各个 𝑥𝑖 − 𝑥𝑗
𝑊𝑖𝑗 = exp −
标签的概率(向量) 2𝜎 2

• 𝑊是相关矩阵,𝑊𝑖𝑗 表示𝑥𝑖 和𝑥𝑗 𝑛


𝐹𝑖 𝐹𝑗
2 𝑛

的相似度(也即在图上的关联) 𝑄 = ෍ 𝑊𝑖𝑗 − + 𝜇 ෍ ‖𝐹𝑖 − 𝑌𝑖 ‖2


𝑖,𝑗=1
𝐷𝑖𝑖 𝐷𝑗𝑗 𝑖=1
• 𝐷为对角矩阵,𝐷𝑖𝑖 为𝑊第𝑖行所
有元素的和 𝑆 = 𝐷 −1/2 𝑊𝐷 −1/2

• 𝑌为分类矩阵,𝑌𝑖𝑗 = 1时说明𝑥𝑖 𝐹𝑘+1 = 𝛼𝑆𝐹𝑘 + 1 − 𝛼 𝑌


属于第𝑗类,其它情况𝑌𝑖𝑗 = 0

25
5.2 置信矩阵
2
𝑥𝑖 − 𝑥𝑗
𝑊𝑖𝑗 = exp −
2𝜎 2

𝑛 2 𝑛
𝐹𝑖 𝐹𝑗
𝑄 = ෍ 𝑊𝑖𝑗 − + 𝜇 ෍ ‖𝐹𝑖 − 𝑌𝑖 ‖2
𝑖,𝑗=1
𝐷𝑖𝑖 𝐷𝑗𝑗 𝑖=1

𝑆 = 𝐷 −1/2 𝑊𝐷 −1/2

𝐹𝑘+1 = 𝛼𝑆𝐹𝑘 + 1 − 𝛼 𝑌

26
6 运动轨迹确定问题
• 在构建起笔划或特征点的对应关系之后,需要考虑它们应该沿
着何种轨迹运动,以获得两张原画的中间位置
• 这里主要介绍两种轨迹:
• 线性轨迹
• 对数螺旋轨迹

27
6.1 线性轨迹
• 线性轨迹的思路很简单,就是连接两个已经匹配的特征点,然
后按照时间对中间点进行插入
• 位置计算公式:
𝑣𝑡+𝑠,𝑘 = 𝑡 − 𝑠 𝑣𝑡,𝑘 + 𝑠𝑣𝑡+1,𝑘
= 𝑡 − 𝑠 𝑥𝑡,𝑘 + 𝑠𝑥𝑡+1,𝑘 , 𝑡 − 𝑠 𝑦𝑡,𝑘 + 𝑠𝑦𝑡+1,𝑘

28
6.2 对数螺旋轨迹
• 因为动画中物体的运动一般沿弧线轨迹运动,且弧线可以暗示
一定的空间关系,基于这个观察,不少算法选择默认使用对数
螺旋轨迹
• 位置计算公式:
𝑡 1
𝑒𝑖,𝑗 = R 𝑡𝛼 𝑒𝑖,𝑗 1 − 𝑡 + 𝑡𝑠
1 2
其中, 𝑒𝑖,𝑗 , 𝑒𝑖,𝑗 表示前后两张画面对应的笔划
R 𝑡𝛼 = e𝑖∙𝛼𝑡 表示𝑡时刻旋转矩阵
𝑠 = 𝑙2 /𝑙1 是长度缩放因子

29
7 几篇文献所用技术的介绍
• 在这里对几篇文献中所使用的相关技术和方法进行简要介绍:
• ARAP:格点网络(Lattice Grid)
• CACAI:上下文网格(Context Mesh)
• Graph-TL+DML:迭代进行马氏距离更新+置信矩阵最优化
• BetweenIT:中间图像线条扭曲(Wrapping)方法
• AnimeInterp:SGM+RFR

30
7.1 ARAP
• 原文:手绘卡通图像的刚性配准
As-Rigid-As-Possible Image Registration for Hand-drawn Cartoon Animations
D. Sykora, J. Dingliana, and S. Collins. 2009
• 目标是用作图像配准,但似乎也可以用作中间画面生成

31
7.1 ARAP
• 配准主要分为两个步骤:推(Push),正则化(Reqularize)
• 两个步骤反复迭代,直至完成图像配准
• Push
𝑡 ∗ = arg min ෍ 𝑆 𝑝 + 𝑡 − 𝑇 𝑝
𝑡∈𝑀
𝑝∈𝑁
• Regularize
𝑅∗ , 𝑡 ∗ = arg min ෍ 𝑅 ∙ 𝑝𝑖 + 𝑡 − 𝑞𝑖 2
𝑅,𝑡
𝑖

32
7.1 ARAP
• 可以用来辅助完成动画领域的另一个问题:自动上色

33
7.2 CACAI
• 原文:上下文感知的计算机辅助补间
Context-Aware Computer Aided Inbetweening
Wenwu Yang. 2018
• 设计了一种交互式界面(CACAI),半自动地对中间画面进行插补
• 核心思路:

34
7.2 CACAI
• 基于视觉的度量标准化:
𝒟 𝑆𝑖1 , 𝑆𝑗2 = 𝒟ℙ 𝑆𝑖1 , 𝑆𝑗2 + 𝒟𝕊 𝑆𝑖1 , 𝑆𝑗2 + 𝒟𝕍 𝑆𝑖1 , 𝑆𝑗2
作者对上述公式的各个子式进行了标准化,从而使它们拥有相同的度量
• 中间画面Context Mesh插补损失函数:
𝑡 2
𝐸𝑉 𝑡 =෍ 𝑣𝑖𝑡 − 𝑣𝑗𝑡 − 𝑒𝑖,𝑗
𝑖,𝑗
它表示中间画面中由特征点连接的网格与经过变换的网格边缘组合的差距。
𝑣𝑖𝑡 − 𝑣𝑗𝑡 表示待确定的点组成的线段
𝑡
𝑒𝑖,𝑗 表示经变换的上下文网格线段
• 整体运动轨迹默认使用对数螺旋,也可以人为指定
35
7.3 Graph-TL+DML
• 原文:基于图的传导推理(直推式学习)在动画结构对应中的应用
Graph based transductive learning for cartoon correspondence construction
J. Yu, W. Bian, M. Song, J. Cheng, and D. Tao. 2012
• 用于对两张原画的笔划进行对应
• 目标是使用梯度下降算法学习一个最优的置信矩阵𝐹
2
𝑥𝑖 − 𝑥𝑗 𝑇 𝑇
𝑊𝑖𝑗 = exp − ⟹ 𝑊𝑖𝑗 𝐴 = exp − 𝑥𝑖 − 𝑥𝑗 𝐴 𝐴 𝑥𝑖 − 𝑥𝑗
2𝜎 2
𝑛 2 𝑛
𝐹𝑖 𝐹𝑗
𝑄 = ෍ 𝑊𝑖𝑗 𝐴 − + 𝜇 ෍ ‖𝐹𝑖 − 𝑌𝑖 ‖2
𝑖,𝑗=1
𝐷𝑖𝑖 𝐷𝑗𝑗 𝑖=1
关键在于把马氏距离(Mahalanobis Distance,马哈拉诺比斯距离)的学习
嵌入到置信矩阵的优化过程中
36
7.3 Graph-TL+DML
• 由两个部分交替迭代完成:
• Graph-TL(基于图的传导式学习,Graph-based Transductive Learning)
• DML(距离度量学习,Distance Metric Learning)

37
7.4 BetweenIT
• 原文:BetweenIT: 一个用于紧密插入的交互式工具
BetweenIT: An Interactive Tool for Tight Inbetweening
B. Whited, G. Noris, M. Simmons, R. Sumner, M. Gross, and J. Rossignac. 2010
• 这里介绍其中用到的线条扭曲(Wrapping)方法
• 内在形状插值(Intrinsic Shape Interpolation)
• 线条拟合(Curve Fitting)
• 正切对准曲率(Tangent Aligning Warp)
2
𝜋 𝐿𝑝 2
𝜋 𝐿𝑝
𝑟𝐴 = acos , 𝑟𝐵 = bcos
2 𝐿 2 𝐿

38
7.5 AnimeInterp
• 原文:自然环境下深度动画视频插帧
Deep Animation Video Interpolation in the Wild
Li Siyao, Shiyu Zhao, Weijiang Yu, Wenxiu Sun. 2021
• 一种基于视频的插帧方法
• 包含两个部分:
• SGM(Segment-Guided Matching,片段引导匹配)
• RFR(Recurrent Flow Refinement Network,循环流细化网络)

39
8 总结与思考——存在的难题
• 图形学仍然难以解决的问题:
• 遮挡引起的拓扑模糊性(Topology Ambiguity)
• 匹配算法没有绝对完美的度量
• 动画的三维旋转难以插补(尤其是转轴平行于画面)

40
8 总结与思考——与深度学习结合
• 动画的绘制,可以理解为这样的一个过程:将感兴趣的三维对
象的运动投影到二维平面,再经过人为加工与概括,从而得到
连贯的二维序列
也就是说,二维动画自然损失一个维度的信息
• 将二维图形在三维空间中重构并进行运动估计,再将中间画面
映射回二维平面,或许是一个可行的方法
即:风格化的图像——生成三维动作——运动预测——映
射回二维空间——重新风格化——统一画风
• 所以真正实现自动补间很可能需要借助深度学习的模型
41
8 总结与思考——数据集
• 数据集的分类:除了从动画片段中截取相应的运动,可能还要对数据进
行更细致的分类(比如人、动物、特效……)
• 数据集的优化:通过算法获得质量更高的数据集(比如只保留人物的运
动,而掩码所有复杂背景的运动
• Omnimatte: Associating Objects and Their Effects in Video
(在视频中关联对象及其效果)
E. Lu, F. Cole, T. Dekel, A. Zisserman, W. T. Freeman and M. Rubinstein. CVPR,2021

42
感谢聆听!

43

You might also like