检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
重新打开ChatGLM3 WebUI界面即可使用自定义模型进行AI对话。 父主题: 使用FunctionGraph部署AI对话ChatGLM3应用
父主题: 使用FunctionGraph部署AI绘画ComfyUI/ComfyUI+FLUX应用
父主题: 使用FunctionGraph部署AI对话ChatGLM3应用
为函数挂载文件系统时,报“failed to mount exist system path” 您可以将文件重新挂载在新的路径下。 用户/用户组ID: 可设置为1000之外的其他数字id,如果为-1默认设置为1003。用户/用户组ID用于对访问远端文件系统的目录权限进行控制。
父主题: 使用FunctionGraph部署AI绘画Stable Diffusion应用
父主题: 使用FunctionGraph部署AI绘画Stable Diffusion应用
上传自定义模型和节点(可选) FunctionGraph应用中心的AI绘画应用中内置了默认模型,如需使用更多自定义模型和自定义节点进行AI绘画并保存生成的结果,需要在创建成功的应用中初始化自定义模型,并挂载文件系统为应用提供持续使用能力。
父主题: 使用FunctionGraph部署AI绘画Stable Diffusion应用
父主题: 使用FunctionGraph部署AI对话ChatGLM3应用
以下以user1的AI绘画ComfyUI应用为例进行介绍,AI绘画ComfyUI+FLUX应用的操作步骤相同。
图9 图片保存目录 父主题: 使用FunctionGraph部署AI绘画Stable Diffusion应用
图1 使用ComfyUI Manager 父主题: 使用FunctionGraph部署AI绘画ComfyUI/ComfyUI+FLUX应用
图4 修改结果保存路径 父主题: 使用FunctionGraph部署AI绘画Stable Diffusion应用
而Serverless GPU则提供了一种更加灵活的方式来利用GPU计算资源,用户只需选择合适的GPU型号和计算资源规模,就可以帮助用户有效地解决GPU长驻使用方式导致的资源浪费、高成本、低弹性等问题,为用户提供更加便捷、高效的GPU计算服务,有效承载AI模型推理、AI模型训练、音视频加速生产
操作流程 构建代码包 创建源文件main.go,代码如下: // main.go package main import ( "fmt" "net/http" "github.com/emicklei/go-restful" ) func registerServer(
自定义镜像函数执行失败报“CrashLoopBackOff” 若出现“CrashLoopBackOff: The application inside the container keeps crashing”错误字段: 请根据页面提示信息诊断原因。
request = new ShowLtsLogDetailsRequest(); try { ShowLtsLogDetailsResponse response = client.showLtsLogDetails(request);
URI GET /v2/{project_id}/fgs/functions/async-status-log-detail 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 租户项目 ID,获取方式请参见获取项目ID。
若不配置委托,在触发函数时,执行结果会返回 Failed to access other services because no temporary AK, SK, or token has been obtained. Please set an agency.
将接口调用逻辑在本地通过main函数进行测试,如图16所示。验证通过后再上线函数平台测试。 图16 main函数 配置函数。 参照准备中创建函数的步骤,创建以mfa-import-serverless命名的函数。 重复托管方式改造中2-4步骤,上传函数代码包。