关于p40炼丹的问题..最近新入手了一张p40显卡用于ai绘画,同时还用3060的笔记本也出图。发现在相同模型关键词采样等各方面条件一样的情况下出960*960的图p40比我的3060慢一半,但是鲁大师跑分和我的3060差不
tesla p40魔..自己设计的铝合金水冷,整片水冷板跑满水路。用了快2个月没有发现任务问题。待机36度,跑图满载30分钟70度。
此外有些处理器因为PCIE通道和BIOS适配的问题,也有可能不兼容。 跑stable diffusion推荐至少16GB及以上内存,我尝试过8G,结果启动的时候模型载入系统卡得难受,内存不足。此外最好使用对称双通道方案比如8+8或者4+4+4+4,8+8+8+8这样的方案,不推荐8+4或者非对称双通道方案,可能会导致系统不稳定,或者系统启动有时过...
之后还需要自己手动在系统设置中指定游戏默认为gtx显卡运行。至于Stable Diffusion,可以通过秋叶大佬的启动器切换运行的显卡。 本方法仅为自己在网上查阅的各类资料汇总,经过自己的实践是成功的,但我不能确保对于其他型号的显卡也有效。仅作参考。
先秀一下改完主题和插件的stable Diffusion主界面: 先来三张真人模型,768x768 再来两张二次元模型,768x768 平均一下,一张768x768的高清图,生成大概需要15-18秒,还不错! 再来体验下语言模型,同样的,为了不污染宿主机,仍然使用docker的方式,部署了清华开源的chatglm3-6b语言模型。
12g显存直接出图极限也就2048分辨率,爆显存会借用共享gpu内存,出图速度慢很多。5g显存出2k图可以用tiled diffusion插件分块出图,速度比借用共享内存快很多,或者用图生图右边的extras放大。 来自Android客户端4楼2023-06-21 11:42 收起回复 胡桃 初级粉丝 1 Tiled Diffusion多大的图都能生成 5楼2023-06-22 14:...
问一下,Tesla ..想买一张廉价的卡画涩图,在小黄鱼上看见Tesla P40 24G价格蛮合适的,就去查了一下参数。之前一直看群里的人经常说半精度FP16什么的,查P40网上给的参数都没有给出半精度浮点性能。不支持半精度
两张P40都无法做到显存叠加。目前AMD显卡可以通过ZLUDA可以跑部分CUDA应用了,比如Stable diffusion ...
4月份的时候ai画画很火,看了一些大佬跑的图看的我手痒痒,自己装了stable diffusion跑了几张图发现现在用的1660s出图速度又慢,又没法出高分辨率的图,经过一番高强度的网上冲浪后相中了TeslaP40,24G的超大现存可以最大分辨率出图,在海鲜市场货比n家之后以1100元一张的价格买入了这张显卡. ...
好久没去玩Stable Diffusion了,主要是入冬了,正襟危坐去鼓捣台式机,还不如玩床边的笔记本。 之前我曾经推荐过英伟达的Tesla M40计算卡,当时我说了,它唯一的卖点就是大显存,24GB显存可以出大图(虽然原版SD直出高分辨率图容易出鬼图,这方面还是建议用SDXL),其他方面这张卡都很废,算力就是现在的中端游戏卡水平,架...