AI开发平台MODELARTS-FLUX.1基于DevServer适配PyTorch NPU推理指导(6.3.909):步骤六:ComfyUI 0.2.2 服务调用

时间:2024-11-12 16:42:36

步骤六:ComfyUI 0.2.2 服务调用

  1. 获取容器IP地址

    在已启动的容器内,使用ifconfig命令获取容器IP,记为${container_ip_address},本例中为172.17.0.7。若无效可使用ip addr,或者自行寻找其他方式获取到容器IP。

    图6 使用ifconfig命令获取容器IP
  2. 使用容器IP启动服务
    cd ${container_work_dir}/ComfyUI 
    
    python main.py --port ${port} --force-fp16 --listen ${container_ip_address}

    参数说明:

    • port:为启动镜像时映射port
    • container_ip_address:为容器IP,如上图的172.17.0.7
  3. 浏览器启动

    浏览器启动时,需要使用宿主机IP,在浏览器中输入 http://${host_ip_address}:${port} ,例如:http://7.216.55.96:8585/

    参数说明:

    • host_ip_address:为宿主机IP地址
    • port:为启动镜像时映射port

    访问界面如下图。

    图7 访问界面
  4. 加载workflow文件,选择workflow-flux1-dev-KnSeTKHjvuTd0RiUDSmW-datou-openart.ai.json。
    图8 加载workflow文件
  5. 选择Diffusion model,可以选择flux1-dev.safetensors或者flux1-schnell.safetensors,分别进行测试,如下图。
    图9 选择flux1-dev.safetensors
    图10 选择 flux1-schnell.safetensors
  6. 选择clip模型,clip_name1选择text_encoders/t5xxl_fp16.safetensors,clip_name2选择text_encoders/clip_l.safetensors, 如下图。
    图11 选择clip模型
  7. 选择vae模型,如下图。
    图12 选择vae模型
  8. 配置推理的参数,如width、height、batch_size等,如下图所示。
    图13 配置推理参数
  9. 单击Queue Prompt加入推理队列进行推理,如下图
    图14 推理队列

    成功之后结果如下图所示。首次加载或切换模型推理时,需要加载模型并进行相关初始化工作,首次推理时间较长,请耐心等待。

    图15 推理成功
support.huaweicloud.com/bestpractice-modelarts/modelarts_aigc_flux_9091.html