AI绘画指向——A卡用户是如何进行AI绘画的

拾光 2023-5-23 286 5/23

  先前在折腾我那两张p106的时候说过,A卡用户很难进行AI绘画,由于 AMD 目前仍然没有发布 Windows 平台下的 ROCm 框架,因此在 Windows 下暂时无法使用 stable-diffusion-webui。

当然如果你的用的是Linux就无所谓了,A卡还是N卡随便你折腾,

当然兼容性方面,还是N卡更胜一筹,毕竟布局那么多年,是吧。

但是,问题来了,

很多小伙伴的电脑都是Windows,对于Linux不了解,

或者说对Linux有一定的了解,但是对于AI绘画只是出于兴趣,电脑出于学习和工作原因难以更换系统,

其中最难受的就是用着Windows而且还是A卡的朋友们,

为了一个AI绘画再买一张显卡,似乎有点不值,哪怕只是一张p106

那么,当我们出于这么一个情况的时候,该怎么办呢?

难道就没办法解决吗?

答案是否定的,当然能解决。

作为替代方案,您可以尝试使用 CPU 生成,或使用 NMKD Stable Diffusion GUI 中的 Stable Diffusion - ONNX 管线加速。

项目的地址:点击前往

AI绘画指向——A卡用户是如何进行AI绘画的

这是不同于 stable-diffusion-webui的AI图像生成方案,

有点模块化的 text2image GUI,最初只是为了稳定扩散。

依赖于 InvokeAI Stable Diffusion 代码的稍微定制的分支:Code Repo

该工具正在积极开发中,预计会出现一些小问题。 


特征:

包含依赖项,无需复杂安装


支持text-to-image和image-to-image(图片+文字提示)


支持基于指令的图像编辑(InstructPix2Pix)


提示特征:注意/强调,否定提示


支持自定义稳定扩散模型和自定义 VAE 模型


一次运行多个提示


内置图像查看器显示有关生成图像的信息


内置升级 ( RealESRGAN ) 和面部修复 ( CodeFormer或GFPGAN )


提示队列和提示历史


创建无缝(平铺)图像的选项,例如用于游戏纹理


支持加载自定义概念(文本反转)


各种用户体验功能


与您的 GPU 一样快(RTX 4090 上每幅图像 1.7 秒,RTX 3090 上每幅图像 2.6 秒)


内置安全措施,可扫描下载的恶意软件模型


最重要的是什么呢,

这个项目不会因为使用A卡导致无法使用许多好用的模型,

它能通过将模型进行转换成ONNX模型实现,

所以不用担心许多模型不能用,

但是,

但是,

由于功能的缺少,许多插件例如lora插件是没办法使用的

而且,由于stable-diffusion-webui更具知名度,

导致国内许多汉化作者鲜有关注该项目的,

这导致了该项目是全英文的,

对于一些英文不好的小伙伴来说,有点不友好,

但是先解决能用的问题不就大道宽敞了。

至于汉化的问题,大概以后我会汉化一部分?

关于NMKD Stable Diffusion GUI的使用过程,

拾光我对于这个项目还是有点小幽怨的,

因为优化不好,导致显存占用还是蛮高的,

所以推荐大家尽量用较小的模型,不然我担心你的显卡受不住,

推荐A卡得有10G的显存就可以跑大部分模型了。

随便玩玩的话,像RX580啥的还是没问题的。

还有硬盘的话,还是尽量用固态吧。

影响还是蛮大的。

- THE END -

拾光

5月23日12:52

最后修改:2023年5月23日
0

非特殊说明,本博所有文章均为博主原创。

共有 0 条评论