stable Diffusion的强大我们就不再多说了,关于本地部署的文章,也有很多,大家一翻就能找到,我这里假设大家都已经部署完了sd,处于一个随时可以产出的状态。

一,选取模型

首先在画漫画之前,我们先去找一款自己喜欢的漫画风格,通过Checkpoint或者lora的形式来辅助我们产出。这里我推荐几个。

第一个,Komowata的漫画风格,这个也是我最喜欢的,我们后续就用这个漫画模型来进行演示,下载地址

https://civitai.com/models/27323/komowata-haruka-cg-style-checkpoint

其他还有很多漫画风格的模型,lora,大家可以自行选择,只要自己喜欢,例如:

红圈里的这些Checkpoint或者lora是都可以稳定产出的,圣斗士那一款也非常好玩,大家可以试试。

在选定了漫画风格以后,就可以正式开始创作了。

二,角色一致性

使用AI创作漫画要解决的第一个问题,就是角色一致性。虽然lora已经帮我们解决了大部分风格一致性的场景,但是想每次产出的同一个角色都保持一致,还是非常困难的。这里需要大家把自己设定的每一个角色提示词固定下来,以后到该角色出场的时候,都用同一套提示词来描述,然后通过批量生产来选取自己满意的一张。例如我们现在生产一个女孩角色:“粉色外套,白色T恤,黑色裙子,全身,正面,微笑,粉色头发,在大街上“

每次批量生产十几,几十张,废掉的可能有很多,但总能找到合适的。这里只是示例,真实的角色创建需要描写的更细致,比如至少眼睛颜色要固定。

“暴力解决”了角色的一致性之后,接着就是剧情部分了。剧情可以是喜欢的小说,也可以是一些没品笑话,这里就完全自由发挥了,而且和sd关系不大。我这里选择创造一个四格小故事。

三,细节调整

当剧情确定以后,想必每一位漫画作者脑海里都已经有了自己的画面,剩下的就是把这些画面描述出来,使用sd大量产出,然后选取。

在产出的时候难免遇到一些画面细节需要微调的,单单靠提示词已经非常难处理,这个时候可以使用两个小技巧,图生图和ControlNet。

举个例子,比如我想要一个几本书垫在一台显示器下面的画面,通过描述很久也得不出想要的结果,这个时候使用图生图就可以轻松完成。

使用图生图的时候,可以画个草图,也可以直接拍张照片,既然是零基础,我是个连草图都不会画的人,拍照片又没有素材,干脆百度一张图吧:

然后通过图生图的能力,配合自己的提示词,可以得到一大批照片,然后选出自己中意的那张:

当有更加细致的要求,姿势,表情,构图,动作,手势等等,单靠拍照已经不能满足了,这个时候可以使用controlnet插件来控制画面,关于controlnet的相关教程有很多,这里就不展开讲,比如我现在想要一个男女手牵手的照片,通过提示词,加controlnet绘制,就可以得到一批又一批的出品,作为导演的你来挑选就行了:

四,拼图

所有的场景都按照我自己的想法产出,挑选完毕之后,就可以来做拼图了,漫画的拼图方式很多,很多美图软件都带这种功能,这里不做广告,我任意选择一款,来把挑选出的四幅画面拼合成我想要的四格漫画:

然后添加台词:

这样我们一个四格漫画,就通过sd生产完成,对于一个完全没有绘画能力的人来说,效果我还是非常满意的。

五,扩展

如果我不仅仅满足于产出一副漫画,而是想加上配音,产出更丰富的内容,那么可以推荐一款配音神器,微软的

他可以快速产出各国语言,方言,可以表现性别,情绪等等,也许你拿来一听就会觉得音色很熟悉,注意看,这个作者叫 。。。。。。