检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
运行时:选择用来编写函数的语言,默认“Node.js 16.17”,支持用户选择其他运行时语言。 图1 基本信息配置 配置代码源,复制如下代码至代码窗,单击“部署”。 样例代码实现的功能是:获取测试事件,打印测试事件信息。 exports.handler = function (event
通过应用中心部署AI绘画Stable-Diffusion 案例概述 准备 应用创建部署 应用使用 自定义模型 进阶使用 免责声明
本教程必须使用两个不同的OBS桶。 保证函数和OBS桶在一个区域(区域都选择默认即可)。 实现流程 在OBS服务中,创建两个桶。 创建函数,设置OBS应用事件源。(当前“OBS应用事件源”仅支持华北-北京四、华北-乌兰察布一、华东-上海一。) 用户向其中一个桶上传文件。 触发函数执行,对文件加/解密。
您可以通过华为云函数工作流服务的应用中心部署AI绘画Stable-Diffusion应用,且支持自定义模型上传等能力。您可以快速访问Stable-Diffusion WebUI界面绘图,实现文生图、图生图等功能。(目前仅支持华东-上海一) 父主题: 通过应用中心部署AI绘画Stable-Diffusion
Stable-Diffusion WebUI 在不使用预留实例时,首次加载冷启动时间会持续30s左右,如遇到加载超时问题,您可以刷新页面解决。 父主题: 通过应用中心部署AI绘画Stable-Diffusion
使用FunctionGraph开发程序之后是否需要部署? 用户在本地开发程序之后打包,必须是ZIP包(Java、Node.js、Python、Go)或者JAR包(Java),上传至FunctionGraph即可运行,无需其它的部署操作。 制作ZIP包的时候,单函数入口文件必须在根
管理函数 配置函数初始化 配置函数的常规信息 扩展函数的磁盘存储空间 配置函数的环境变量 配置函数的异步调用策略 配置函数的并发处理 配置函数的别名 配置函数的动态内存 配置函数的心跳检测 配置函数的标签信息 配置函数的快照式冷启动 管理函数的版本 导入导出函数 启用禁用函数 为函数配置预留实例
创建Next.js项目 本案例以Next.js框架的默认demo为例演示部署过程,需要在Linux环境中创建一个全新的Next.js项目,本案例采用本地运行Docker node:18.15.0镜像的方式,同样适用于其他Linux系统。关于Docker镜像和Linux操作系统的使用并非本案例主要内容,不做过多赘述。
于开源项目的问题还需用户到开源社区寻求帮助或者自行解决。 本应用部署后会为您创建APIG网关,根据有关规定,请在应用创建成功后根据提示绑定自定义域名后,使用您的自有域名访问WebUI界面。 父主题: 通过应用中心部署AI绘画Stable-Diffusion
函数流中除开始、结束和异常分支节点外,其他节点都要统计执行次数计费。 GPU计量时间费用 根据您配置函数的GPU规格和函数执行时长计费,输入值必须在0GB到10GB之间,执行时长的计量粒度是1毫秒。 磁盘计量时间费用 根据您配置函数的磁盘规格和函数执行时长计费,磁盘超出512MB的部分才计费,输入值必
模型辅助函数会为您将模型转发到SFS Turbo共享路径,在页面重新加载后模型即可使用。 初始化 模型上传与加载 父主题: 通过应用中心部署AI绘画Stable-Diffusion
当函数是预留实例模式且开启空闲模式时,在预留实例生命周期内中,空闲时间产生的计量时间不包含在每月400,000GB-秒的免费额度里。 表1显示了函数工作流配置不同内存规格时的免费执行额度。 表1 免费执行额度 内存(MB) 每个月的免费执行额度(秒) 128 3,200,000 256 1,600
FunctionGraph函数监控信息,提供了调用次数、运行时间、错误次数、拒绝次数和资源统计监控指标。建议对监控指标中的错误次数和运行时间-最大运行时间创建告警配置,这样就能及时感知到如下情况: 访问Redis异常。例如连接异常、请求超时、服务暂时不可用,导致函数执行错误计入错误次数指标。 使用复杂度
函数调用链 获取函数调用链配置 修改函数调用链配置 父主题: API
只允许创建APIG/APIC的触发器类型,其他触发器不支持。 该特性仅FunctionGraph v2版本支持。 调用链 用户通过页面函数配置开启调用链,开启后可以链接到APM服务页面查看jvm、调用链等信息,当前仅支持JAVA函数。 自定义镜像 支持用户直接打包上传容器镜像,由
模型上传与加载 将您自定义的模型上传到对应的路径下,如CheckPoint模型、VAE模型和Lora模型。 图1 CheckPoint模型 图2 VAE模型 图3 Lora模型 上传完成后回到Stable-Diffusion WebUI界面重新加载模型后即可看到新增模型,加载需要较长时间请耐心等待。
<=5000次/月,不计费。 >5000次/月,各节点执行累计总次数 * 每千次单价。 具体请求次数单价详情请参考价格详情。 GPU计量时间费用 根据您配置函数的GPU规格和函数执行时长计费,输入值必须在0GB到10GB之间,执行时长的计量粒度是1毫秒。 按需计费 函数计算资源消耗公式:函数GPU大小(GB)
复用该实例的并发请求时可能会因断连而访问redis失败。 表1 Redis配置 参数 默认值 说明 connection_pool None 连接池 表2 BlockingConnectionPool配置 参数 默认值 说明 max_connections 50 连接池最大连接数
deploy 命令是对函数资源进行部署的命令,即将本地在 Yaml文件 中声明的资源部署到线上。 命令解析 参数解析 操作案例 注意事项 deploy function命令 参数解析 操作案例 deploy trigger命令 操作案例 父主题: 部署deploy
function命令,是部署函数的命令。 当执行命令deploy function -h/deploy function --help时,可以获取帮助文档。 参数解析 表1 参数说明 参数全称 参数缩写 Yaml模式下必填 参数含义 type - 选填 部署类型,可以选择code,