AI开发平台MODELARTS-FLUX.1基于DevServer适配PyTorch NPU推理指导(6.3.909):步骤六:ComfyUI 0.2.2 服务调用
步骤六:ComfyUI 0.2.2 服务调用
- 获取容器IP地址
在已启动的容器内,使用ifconfig命令获取容器IP,记为${container_ip_address},本例中为172.17.0.7。若无效可使用ip addr,或者自行寻找其他方式获取到容器IP。
图6 使用ifconfig命令获取容器IP
- 使用容器IP启动服务
cd ${container_work_dir}/ComfyUI python main.py --port ${port} --force-fp16 --listen ${container_ip_address}
参数说明:
- port:为启动镜像时映射port
- container_ip_address:为容器IP,如上图的172.17.0.7
- 浏览器启动
浏览器启动时,需要使用宿主机IP,在浏览器中输入 http://${host_ip_address}:${port} ,例如:http://7.216.55.96:8585/
参数说明:
- host_ip_address:为宿主机IP地址
- port:为启动镜像时映射port
访问界面如下图。
图7 访问界面
- 加载workflow文件,选择workflow-flux1-dev-KnSeTKHjvuTd0RiUDSmW-datou-openart.ai.json。
图8 加载workflow文件
- 选择Diffusion model,可以选择flux1-dev.safetensors或者flux1-schnell.safetensors,分别进行测试,如下图。
图9 选择flux1-dev.safetensors
图10 选择 flux1-schnell.safetensors
- 选择clip模型,clip_name1选择text_encoders/t5xxl_fp16.safetensors,clip_name2选择text_encoders/clip_l.safetensors, 如下图。
图11 选择clip模型
- 选择vae模型,如下图。
图12 选择vae模型
- 配置推理的参数,如width、height、batch_size等,如下图所示。
图13 配置推理参数
- 单击Queue Prompt加入推理队列进行推理,如下图
图14 推理队列
成功之后结果如下图所示。首次加载或切换模型推理时,需要加载模型并进行相关初始化工作,首次推理时间较长,请耐心等待。
图15 推理成功