【SD教程】仅需4G显存即可畅玩最强Flux大模型,封神级WebUI用Flux模型极速出图!全网最强的Flux使用教程,低配电脑也能轻松出图!(附资料) 3224 0 07:00 App Flux+CN整合包+低显存版 2.6万 13 02:11:22 App 【FLUX+Comfyui最全教学】最新FLUX 7种模型超详细的全方位使用教程介绍新手学习工作流必经的五个阶段...
我4060ti 16G,显存占用14G左右,采样时间四五十秒如果你继续用flux,记得升级pytorch cuda xformers的版本,升级到2.4.1,会对flux有提速效果 5楼2024-09-20 09:13 收起回复 呜呼小能手: 好的 2024-9-21 16:50回复 我也说一句 coolrail 初级粉丝 1 不正常,我的4060ti 8G 跑 flux fp8dev 1024的图 要...
94松果果 活跃吧友 4 flux fp8 8G显存 不用什么额外的插件,comfyui 原生就可以跑的要求没那么高4G 显存也可以跑,只是慢而已。 10楼2025-02-04 16:08 回复 扫二维码下载贴吧客户端 下载贴吧APP看高清直播、视频! 贴吧页面意见反馈 违规贴吧举报反馈通道 贴吧违规信息处理公示...
你先把剪枝类型改成 fp8 试下flux对显存要求没那么夸张,12G够用的。需要把SD放在固态硬盘上,不如会很慢。跑1024*1024 显存占用11G不到,用不到共享GPU的,内存占用22G左右,32G也完全够用。 15楼2025-03-14 17:06 收起回复 Zengoz: 虚拟内存加大就解决了 2025-3-14 17:08回复 Zengoz: 但是有时换完模型...
Flux确实很不错,毕竟还是SD原开发人员组的实验室。语义理解非常强大,硬件消耗更大了,fp8量化版本需要显存23G多,dev版生图比较慢,schnell版就很快了,1024x1536不到10秒一张,pro版本因为未放出本地模型文件所以就没测试(偷懒,所以大部分提示词来自civitai,有删改)。
模型:flux-dev - Clip:t5xxl_fp8_e4m3fn 模型:flux-dev - Clip:t5xxl_fp16 这是最终的图片效果,其中图 1 和图 3 是完全一样的,图 2、3、4 相差不多,主要是一些细节上的区别,比如衣服前面的配饰有一些细微的差别。所以个人觉得在小显存的情况下,可以完全同时使用 FLUX 模型和 Clip 模型的 fp8 量化...
comfyui 10..我用的主模型是comfyOrg版本的flux dev fp8,加了一个lora,尺寸是960*1440,显存采用13G左右,之前是14多个G版本更新内容见链接:https://www.comfyui.
经过我实测,dev fp8(comfyOrg版)版本速度比gguf版本的更快(Q6和Q4),按理来说,精度更低的Q6Q4速度应该更快才对。我是4060ti 16G的显存,我最开始用的就是dev fp8(comfyOrg版),一张1024*1024的图,需要50多秒。但我感觉像是占用了内存条,所以我想换精度更低的gguf版本,希望只用显存来提升速度(不开显存...
FLUX.1原版模型的精度是fp16,ComfyUI的开发团队针对FLUX开源的两款模型制作了fp8的量化版本。这种以损失少量精度为前提进行压缩的量化模型,运行时间能缩短到原来的一半,并且显著降低显存占用,还能节约好几个G的存储空间。fp8的使用也很简单,可以直接通过ComfyUI自带的Checkpoint加载器进行加载。但不可避免的是,由于...