Intel Iris用户福音:顺畅运行ComfyUI指南
你好,我是 shengjk1,多年大厂经验,努力构建 通俗易懂的、好玩的编程语言教程。 欢迎关注!你会有如下收益:
- 了解大厂经验
- 拥有和大厂相匹配的技术等
希望看什么,评论或者私信告诉我!
@TOC
一、前言
上一篇我们了解到了什么是 CUDA 以及 Intel(R) Lris(R)Xe Graphics ,了解清楚后,下面我们在 Intel(R) Lris(R)Xe Graphics 机器上 开始本地安装 ComfyUI。
二、安装 ComfyUI
2.0 安装 aconda
2.1 步骤1:检查GPU是否支持CUDA
我的是 Intel(R) Lris(R)Xe Graphics 不支持 CUDA
2.2 安装 PyTorch版本
进入 pytorch官网,
https://pytorch.org/get-started/locally/ 选择合适的方式下载合适的包
2.3 下载 ComfyUI
此步需要你将 ComfyUI 代码拉到本地。如果你会 Git 请在 Terminal 运行以下代码,即可完成此步骤:
git clone https://github.com/comfyanonymous/ComfyUI
2.4 进入到 ComfyUI
cd /ComfyUI
2.5 安装依赖
pip install -r requirements.txt
三、启动服务
python main.py --disable-cuda-malloc --use-split-cross-attention --cpu
--disable-cuda-malloc:这个选项可能是用于禁用使用CUDA(Compute Unified Device Architecture)库中的内存分配功能。CUDA是由NVIDIA提供的并行计算平台和编程模型,用于在NVIDIA GPU上加速计算任务。禁用CUDA内存分配可能意味着程序将不再使用GPU上的内存管理功能。
--use-split-cross-attention:这个选项可能指示程序使用分割的跨注意力(cross-attention)机制。在深度学习中,跨注意力是一种模型结构,用于处理序列到序列的任务,使得模型能够有效地关注输入序列的不同部分。使用分割的跨注意力可能意味着模型使用了一种特定的注意力机制变体。
--cpu:这个选项可能指明程序应在CPU上执行,而不是在GPU上执行。在深度学习任务中,通常会使用GPU来加速计算,因为GPU具有并行计算的优势。但是,有时候也可以选择在CPU上运行,尤其是当GPU资源有限或者任务不需要太多计算性能时。
四、总结
这篇文章为读者提供了在Intel(R) Iris(R) Xe Graphics机器上安装和启动ComfyUI的详细指南,强调了即使在不支持CUDA的环境下,通过选择正确的启动参数和配置,也能有效地运行深度学习应用。此外,文章通过作者shengjk1的介绍,展示了其对于编写有教育意义且易于理解的编程内容的承诺,以及分享大厂技术经验的意图。
相关文章
- SQL Server导出表结构和数据(sql导出表结构和表数据)
- 告别单证积压!一套系统打破信息孤岛,电子化存证一键溯源!
- 速看!SQL server数据库日志文件过大怎么办?
- 云计算实战:数据备份(如何实现数据云备份)
- SQLServer收缩日志文件(sqlserver收缩日志文件是什么意思)
- RDS sql server使用DTS进行数据库迁移,同阿里云RDS进行数据库迁移
- 如何轻松搞定SAP HANA数据库备份?
- 对于企业数据云备份,“多备份”承诺的是成本更低,管理更高效#36氪开放日深圳站#
- 超详细的SqlServer数据库触发器总结
- Acronis Backup (Advanced)使用示例:备份与恢复(一)