此外有些处理器因为PCIE通道和BIOS适配的问题,也有可能不兼容。 跑stable diffusion推荐至少16GB及以上内存,我尝试过8G,结果启动的时候模型载入系统卡得难受,内存不足。此外最好使用对称双通道方案比如8+8或者4+4+4+4,8+8+8+8这样的方案,不推荐8+4或者非对称双通道方案,可能会导致系统不稳定,或者系统启动有时过...
穷人一枚,想自己训练模型,所以更看重显存大小,性能无所谓大不了多训练一点时间。看中洋垃圾Tesla P40 显存24GB和Tesla P100 显存16GB。有传言说P40不支持half-float运算,所以显存中存放的仍是float数据,那岂不是24GB只能当12GB用?是否为真,有知道的大佬吗 送TA礼物 1楼2023-04-13 23:49回复 ...
关于p40炼丹的问题..最近新入手了一张p40显卡用于ai绘画,同时还用3060的笔记本也出图。发现在相同模型关键词采样等各方面条件一样的情况下出960*960的图p40比我的3060慢一半,但是鲁大师跑分和我的3060差不
cd stable-diffusion-webui-docker # 安装依赖套件,会自动下载Stable Diffusion v1.5的模型。 docker compose --profile download up --build # 启动容器,选取auto代表启动AUTOMATIC1111开发的WebUI docker compose --profile auto up --build 启动完成后通过http://ip:7860可以访问SD的web页面,默认只有Stable Diffus...
先秀一下改完主题和插件的stable Diffusion主界面: 先来三张真人模型,768x768 再来两张二次元模型,768x768 平均一下,一张768x768的高清图,生成大概需要15-18秒,还不错! 再来体验下语言模型,同样的,为了不污染宿主机,仍然使用docker的方式,部署了清华开源的chatglm3-6b语言模型。
跑stable diffusion推荐至少16GB及以上内存,我尝试过8G,结果启动的时候模型载入系统卡得难受,内存不足。此外最好使用对称双通道方案比如8+8或者4+4+4+4,8+8+8+8这样的方案,不推荐8+4或者非对称双通道方案,可能会导致系统不稳定,或者系统启动有时过不了内存自检。或者开XMP容易产生故障。
tesla p40魔..自己设计的铝合金水冷,整片水冷板跑满水路。用了快2个月没有发现任务问题。待机36度,跑图满载30分钟70度。
问一下,Tesla ..想买一张廉价的卡画涩图,在小黄鱼上看见Tesla P40 24G价格蛮合适的,就去查了一下参数。之前一直看群里的人经常说半精度FP16什么的,查P40网上给的参数都没有给出半精度浮点性能。不支持半精度
实现的效果:打游戏用gtx1080ti,Stable Diffusion跑图用P40。 --- 装机之前:先确认你的机箱装得下1000+W的电源以及全长的两张显卡。P40长度约等于我这张索泰1080Ti 至尊OC Plus。 以及,很可能需要准备多一条PCIE电源线,我的这款酷冷至尊电源只给了两条6+2PCIE,1条600W的40系专用线以及两条CPU的PCIE供电,而...
此外有些处理器因为PCIE通道和BIOS适配的问题,也有可能不兼容。 跑stable diffusion推荐至少16GB及以上内存,我尝试过8G,结果启动的时候模型载入系统卡得难受,内存不足。此外最好使用对称双通道方案比如8+8或者4+4+4+4,8+8+8+8这样的方案,不推荐8+4或者非对称双通道方案,可能会导致系统不稳定,或者系统启动有时过...