Pinned post
Pinned post
Pinned post
Pinned post

那个,没发过几条原创嘟文的不过fo…

Pinned post

:unlovely_tutu_2_14: 我好讨厌洋葱,为啥焗饭里头总是有洋葱

对不起,我错了,在水里下雨天小草就是神

Show thread

原神要停服了,我也不玩了,号就送给大家了。对不起。
谁都可以登,我心累不想管了。
真的,很难过。
圈子好乱,不想管事了,大家有缘再见吧~
走了,勿念,不留其他联系方式了。
这个号当公共号送给大家了,需要的直接上号吧。
账号:KFCcrazy_Thursday
密码:v_wo50​

每天都在思考我的表情包用户每天都在聊什么。。

稻妻,我的稻妻终于不打雷了,终于不会挂个机莫名其妙被雷劈飞了

远吕羽氏遗事,我谢谢你,其二其三以为可以结了还有其五,要不是讨厌这打雷天气我跑了

我还是降世界等级吧五级真的打不过

须弥是什么鬼地方找锚点跑到崩溃。。要不是想找小草素材我宁愿去矿产跑

#论文导读

再衍生一下,如果你玩得更花一点,或者你可能看过一些AI给我画头像的结果,就是这时候输入变成了一张照片,那么这样要怎么控制生成的结果呢?

这里有几种不同的方法,其实算是不同流派了。

第一种是直接提取图片的clip特征,就像文字特征一样去引导图片。这样生成出来的结果,图片的内容比较相近,但结构不一定相同。例如图一,模型生成了相似的内容但是完全没有学到超越妹妹的一分美貌呢!

第二种特别好理解,现在主流的AI画画webui里的img2img都是采用这个方法。就是对输入的原图增加几层噪声,再以这个为基础进行常规的去噪。使用你希望的画风相应的咒语,就可以生成和你原图结构类似但画风完全不同的图片。叠加的噪声的强度越高,生成的图片和原图就差距越大,模型的发挥空间就越大。图二是用这个方法生成的二次元美少女,你把屏幕放远点看这两张图的色块是相近的。因为右边的图片就是基于左边叠加了厚厚的“椒盐”来作为基础生成的,大致的色块结构依然保留了,但模型也加上了自己的想象(通过文本引导)。

第三种方法是用对应的图片去finetune生成网络(Dreambooth),如图三。给模型看很多很多小狗狗的图,让模型的生成结果缩小到狗狗这个范围,这样只需要一些简单的词汇就可以生成各种各样的小狗狗啦!是不是很可爱捏!!

@mature

Show thread

刚在小区楼下被一小姑娘要微信了,说喜欢我这车也想买 :0330:

还真六十抽出草神。。。但是我对这个真没啥兴趣

Show older
小森林

每个人都有属于自己的一片森林,也许我们从来不曾走过,但它一直在那里,总会在那里。迷失的人迷失了,相逢的人会再相逢。愿这里,成为属于你的小森林。