人工智能与动漫制作 人工智能与动漫制作专业

Bitget下载

注册下载Bitget下载,邀请好友,即有机会赢取 3,000 USDT

APP下载   官网注册

大家好,今天小编来为大家解答人工智能与动漫制作这个问题,人工智能与动漫制作专业很多人还不知道,现在让我们一起来看看吧!

本文目录

  1. 动画片是怎么制作而成的?
  2. 新手怎么制作一部好动画?
  3. 动画会被ai取代吗
  4. 如何使用人工智能生成动漫人物?

动画片是怎么制作而成的?

作者:城门妖怪链接:https://www.zhihu.com/question/31554729/answer/53411871来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

题主这个提问太大了,我就以做一个动画短片为例说一下大致流程和分工吧。

1.在开始做动画之前,当然要先解决剧本、人设、场景设定、分镜等等与技术无关的问题。就像这样:2.建模我是在美帝学的,中文名词用的可能不准确。AutodeskMaya是最通用的基本软件,建模时会用到其他的建模软件比如Mudbox,Zbrush等。我个人非常不喜欢建模这件事,但喜欢的人会疯狂的喜欢,没完没了的建模玩。以下是给建筑和物品的建模方式,从基本的几何体(立方体、圆柱等)开始,拉伸,截面,旋转,合成,加线建成模型。模型要尽量保持简洁高效,不能有多余的点线面,不然之后会造成贴材质和渲染的麻烦。以下是常见的用于游戏的人物模型,在建模软件里完成之后人物身上有几百万几千万的面,要简化之后才能拿来做动画。3.Rigging(评论教我中文叫绑定)人物的模型一般就像上面一样的大字型,要动起来全靠Rigging。这个活非常技术。首先要先建立人物的骨骼:骨骼和各种控制点做好之后做蒙皮,在模型上画出每个控制点对肌肉和骨骼的影响程度,然后发生了很多事之后(啥),就会变成下面这样动画师通过控制rig使人物动起来,想要rig出一个各个地方都能自由活动,又能让动画师好上手,又不会动不动崩坏文件的人物真是不容易啊。脸部的rig:4.动画有了rig之后,人物就可以动起来了动画师一般会录下来真人表演的动作,然后再根据真实的动作开始做动画。而且很多时候都是动画师自己演的:

做动画是一种表演方式,所以动画师都很有表演才能。我是传奇的一位动画师在做一段僵尸跳下楼梯的镜头时,因为需要先录下来真人参考,从楼梯上跳下来腿摔断了。超凡蜘蛛侠里面电光人的动作参考的是特效制作总监在水下拍的自己扭来扭去的动作。动画是作品的灵魂,动画做的让人信服,人物才能活起来。每个眨眼,每次小动作的设计和执行都是体现人物性格的关键。这就是为什么皮克斯和迪斯尼的作品这么有灵性。比方说观众可能不会注意到,在BigHero6里面,动画师为了体现gogo(那个酷的不行的黑发女孩)耍酷的特点,她嚼口香糖的时候不是直接把它吹爆,而是吹出泡泡,放回嘴里,然后咬爆。这种细节的奇思妙想真让人佩服。

呃。。真的有人看吗?有人看我再写。快看我快看我!!

—————————————7/2更新—————————————————————5.材质、灯光与渲染这三个方面是密不可分的,这个过程从建模之后就一直在进行。有了真实的材质画面才可信,有了灯光才有气氛和故事。3d的布光与电影布光有许多相似之处,除了像电影灯光师一样要分辨如何创造气氛和画面之外,灯光师通过控制光的种类、强度、形状、颜色、反射方式、阴影等等来模拟真实的光影效果。调整材质的物理性质可以模拟出不同效果:金属、塑料、皮质、玻璃等等。材质的纹理通常用Photoshop做出来图片之后贴在模型上,做起来很复杂,这边就先不细说了。在真人电影里,材质和灯光也是让模型达到以假乱真效果的关键。经过渲染才能看到灯光与材质的效果。渲染器有很多种,目前电影和动画经常使用的渲染器有Arnold和皮克斯开发的Renderman。渲染是最费时间的最后步骤,动画制作中的所有人的努力都是为了节省渲染时间的同时达到最佳效果。BigHero6之所以得到这么壮观的效果是因为电影中的SanFransokyo中的全部建筑和车辆都是完整的模型,包括八万三千座大楼和二十一万盏街灯。他们为此开发了一个新的渲染器Hyperion,Hyperion对光的特殊计算方式才让渲染这种超大型场景成为可能。在这之前,动画与电影中的远景都是通过MattePainting实现的,也就是画出来的2d画面,或者通过把2d画面投射在简单的3d物体上得到的“假像”。就像下面这样,前景是真实的建筑(在动画中前景是完整的3d模型),背景是MattePainting.6、合成Compositing合成是最后一步,也是非常重要的步骤,好的Compositer能化腐朽为神奇。现在行业里一般使用Nuke做合成,把渲染出来的层面(对不起我实在词穷了)合成起来,调整光和材质的不足之处,把背景和特殊效果与画面合成在一起。

7、剪辑经评论提醒,我少说了最后剪辑的步骤。我剪辑不是很专业,习惯用AfterEffects,评论说剪辑不应该用AE应该用非编软件像Premiere这种。剪辑就是把渲染合成好的各个镜头拼在一起,整体调整色调,配音,配乐,加片头、字幕、职员名单。这个步骤跟动画技术就没有很大关系啦,做电影剪辑的人也可以做这件事。

电脑动画的大致制作过程就是这样,我省略了某些特效方面,比如毛发,水,烟雾等,请其他专业人士补全吧。

以上提到的每个步骤都是一门专业,是耗时耗力,兼并艺术与技术的行业。如果你身边有人是做电脑动画或电影视效的,请爱护他们,在他们偶尔从洞穴里爬出来的时候请他们吃饭,因为他们不一定什么时候就猝死了(严肃脸)。真的。

新手怎么制作一部好动画?

一,你要想一个故事,不要想得太复杂,短篇时间很短,表现的情节有限,制作三到五分钟左右,把你的故事情节写下来,发生在哪里,有什么人,白天还是晚上,说了些什么,也可以制作没有对白的动画短篇,以动作表现故事。

二,然后呢!你设计动画的角色,最好画三到五个角度,正面,半侧,侧面,后面,左右不同的话,再画个侧面,用来制作动画时参考,把你的角色故事中用到的表情画出来,设计动画美术风格,也就是画风。

三,绘制分镜,把故事图像化,分镜标注好镜头运动,角色需要怎么动,镜头持续时间,声音,对白,音效等等。可以先合成一个动态分镜。

四,绘制原画,把角色关键动作画出,也可以先画草图动作,然后勾线。

五,原画没什么问题后,绘制中间帧动画,添加口型,然后上色。

六,绘制背景,根据美术设定和剧情需要绘制动画背景。可以手绘扫描,也可以直接电脑绘制。

七,把动画和背景合成,进行调整

八,根据分镜合成每个镜头,找配音公司配音,添加特效和背景音乐。

九,渲染输出,导出压缩,我们一般导出h.264格式,文件压缩的比较小,上传视频网站也快。

最后一个好的动画离不开好的剧情和制作技术

动画会被ai取代吗

人工智能绘图继续发展下去,取代人力的动画师是必然的,完全不需要有一丝的怀疑。

ai迟早可以替代一切或者说绝大部分人工劳作,特别是重复性高的,模式化强的手工工作,但是这跟它替代人没有任何关系,ai始终需要人类监督和修正工作内容,特别是创作型的行业,人不会被替代,只会从自己动手变成监督和审查罢了。

如何使用人工智能生成动漫人物?

相信每个人都会被卡哇伊的二次元妹子萌到,我们很多人也可能梦想自己创作二次元人物,但奈何技艺不精、功力不足,得到的结果往往无法达到我们的期望。现在人工智能来帮你了!近日,来自复旦大学、纽约州立大学石溪分校和同济大学的一些研究者打造了一个基于GAN的动漫人物面部图像生成器,并且还开放了一个网页版本。研究者近日发表了一篇博客对该项研究进行了介绍。

论文地址:https://makegirlsmoe.github.io/assets/pdf/technical_report.pdf

在线体验:http://make.girls.moe/

我们都喜欢动漫人物,也可能会想自己做一些,但我们大多数人因为没经过训练所以无法做到。如果可以自动生成专业水准的动漫人物呢?现在,只需指定金发/双马尾/微笑等属性,无需任何进一步干预就能生成为你定制的动漫人物!

在动漫生成领域,之前已经有一些先驱了,比如:

ChainerDCGAN:https://github.com/pfnet-research/chainer-gan-lib

Chainerを使ってコンピュータにイラストを描かせる:http://qiita.com/rezoolab/items/5cc96b6d31153e0c86bc

IllustrationGAN:https://github.com/tdrussell/IllustrationGAN

AnimeGAN:https://github.com/jayleicn/animeGAN

但这些模型得到的结果往往很模糊或会扭曲变形,要生成业界标准的动漫人物面部图像仍然是一大难题。为了帮助解决这一难题,我们提出了一种可以相当成功地生成高质量动漫人物面部图像的模型。

数据集:模型要想质量好,首先需要好数据集

要教计算机学会做事,就需要高质量的数据,我们的情况也不例外。Danbooru(https://danbooru.donmai.us)和Safebooru(https://safebooru.org)等大规模图像讨论版的数据有很多噪声,我们认为这是之前成果的问题的部分原因,所以我们使用了在Getchu上销售的游戏的立绘(立ち絵)图像。Getchu是一家展示日本游戏的信息并进行销售的网站。立绘具有足够的多样化,因为它们具有不同的风格,来自不同主题的游戏;但它们也具有很好的一致性,因为它们全部都属于人物图像。

我们也需要分类的元数据(即标签/属性),比如头发颜色、是否微笑。Getchu并没提供这样的元数据,所以我们使用了Illustration2Vec,这是一个基于卷积神经网络的用于估计动漫标签的工具,地址:https://makegirlsmoe.github.io/main/2017/08/14/saito2015illustration2vec

模型:核心部分

为了实现我们的目标,就必须要有一个优良的生成模型。这个生成器需要能理解并遵从用户给出的特定属性,这被称为我们的前提(prior);而且它还需要足够的自由度来生成不同的详细的视觉特征,这是使用噪声(noise)建模的。为了实现这个生成器,我们使用了生成对抗网络(GAN)这种流行的框架。

GAN使用一个生成器网络根据前提和噪声输入来生成图像,GAN还有另一个网络会试图将生成的图像和真实图像区分开。我们同时训练这两个网络,最终会使得生成器生成的图像无法与对应前提下的真实图像区分开。但是众所周知要训练一个合适的GAN是非常困难的,而且非常耗时。幸运的是,最近一项名为DRAGAN的进展让我们仅需相对很少的计算能力,就能实现可与其它GAN媲美的结果。我们成功训练了一个DRAGAN,它的生成器类似于SRResNet。

我们也需要我们的生成器了解标签信息,这样才能将用户给出的指标整合进来。受ACGAN的启发,我们向生成器输入标签以及噪声,并在鉴别器的顶层增加了一个多标签分类器,用来预测图像所分配的标签。

使用这些数据和这个模型,我们直接在GPU驱动的机器上进行了训练。

本节所涉及的技术:

GAN:https://papers.nips.cc/paper/5423-generative-adversarial-nets

DRAGAN:https://arxiv.org/abs/1705.07215

SRResNet:https://arxiv.org/abs/1609.04802

ACGAN:https://arxiv.org/abs/1610.09585

样例:一张图片胜过千言万语

为了了解我们的模型的质量,请参看下面的图像,可以发现我们的模型能很好地处理不同的属性和视觉特征。

固定随机噪声并且采样随机前提是一个很有意思的设置。现在,该模型被要求生成具有相似主要视觉特征的图像,同时结合不同的属性,结果也很不错:

另外,通过固定前提和采样随机噪声,该模型可以生成具有不同视觉特征,但具有相同属性的图像:

网页接口:在你的浏览器上使用神经生成器

为了将我们的模型提供给大家使用,我们使用React.js构建了一个网站接口,并且开放了出来:http://make.girls.moe。通过利用WebDNN并将训练后的Chainer模型转换成基于WebAssembly的Javascript模型,我们让生成过程完全在浏览器上完成。为了更好的用户体验,我们限制了生成器模型的大小,因为用户在生成之前需要下载该模型。我们选择了SRResNet生成器,使得该模型比流行的DCGAN生成器小了好几倍,而且也不会影响到生成结果的质量。速度方面,即使所有的计算都在客户端上完成,一般生成一张图像也只需要几秒钟。

论文:CreateAnimeCharacterswithA.I.!

地址:https://makegirlsmoe.github.io/assets/pdf/technical_report.pdf

摘要:自从生成对抗网络(GAN)问世之后,面部图像的自动生成已经得到了很好的研究。在将GAN模型应用到动漫人物的面部图像生成问题上已经有过一些尝试,但现有的成果都不能得到有前途的结果。在这项成果中,我们探索了专门用于动漫面部图像数据集的GAN模型的训练。我们从数据和模型方面解决了这一问题——通过收集更加清洁更加合适的数据集以及利用DRAGAN的合适实际应用。通过定量分析和案例研究,我们表明我们的研究可以得到稳定且高质量的模型。此外,为了协助从事动漫人物设计的人,我们建立了一个网站,通过在线的方式提供了我们预训练的模型,从而让大众可以轻松获取该模型。

生成器架构

鉴别器架构

关于人工智能与动漫制作的内容到此结束,希望对大家有所帮助。

人工智能与动漫制作 人工智能与动漫制作专业文档下载: PDF DOC TXT