检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
创建函数流 功能介绍 创建函数流 调用方法 请参见如何调用API。 URI POST /v2/{project_id}/fgs/workflows 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方式请参见获取项目ID。 最小长度
部署deploy deploy命令 deploy 命令是对函数资源进行部署的命令,即将本地在 Yaml文件 中声明的资源部署到线上。 deploy命令解析 当执行命令deploy -h/deploy --help时,可以获取帮助文档。 在该命令中,包括了两个子命令:deploy function
使用FunctionGraph部署AI绘画Stable Diffusion方案概述 AI绘画Stable Diffusion及其应用场景 Stable Diffusion是一种开源的文本到图像的生成模型,能够根据用户提示生成高质量、独特的图像,提供了广泛的创意可能性。通过Stable
FunctionGraph最佳实践汇总 本文汇总了基于函数工作流服务(FunctionGraph)常见应用场景的操作实践,为每个实践提供详细的方案描述和操作指导,帮助您轻松构建基于函数工作流的业务。 数据处理类实践 表1 FunctionGraph数据处理类最佳实践 最佳实践 说明
注册OpenTelemetry API http://${EXTENSION_API_ADDR}/telemetry 您可以通过 EXTENSION_API_ADDR 环境变量得到平台开放的提供注册的API地址,例如对于Python,EXTENSION_API_ADDR的获取方式为
配置函数的委托权限 本章节介绍如何创建、配置和修改函数的委托权限。 操作场景 当函数工作流服务需与其他云服务协同工作时,应创建云服务委托,授权FunctionGraph使用这些云服务,并在FunctionGraph中为函数配置委托权限,以实现与其他云服务的协同工作。 对于常见函数应用场景的委托配置
FunctionGraph函数的冷启动优化实践 Serverless按需付费、自动弹性伸缩、屏蔽复杂性等特征使其逐渐成为下一代云计算新范式。但是在Serverless架构带来极大便利的同时,在实时性要求较高的应用场景下,冷启动将是面临的一个切实的挑战。当使用Serverless构建
部署和使用AI对话ChatGLM3应用 本章节介绍如何通过函数工作流控制台部署AI对话ChatGLM3应用。部署成功后,即可使用内置默认模型和临时域名开始AI对话体验。 前提条件 完成部署AI对话ChatGLM3准备工作,委托中包含“SWR Admin”、“VPC Administrator
直接上传函数代码 本章节介绍如何通过函数工作流控制台,直接上传函数代码文件进行部署。 操作场景 当函数的代码文件大小不超过40MB时,可以在函数工作流控制台直接上传本地开发完成的ZIP或JAR代码文件进行函数代码部署。请参考表1,查看所使用的运行时支持的直接上传代码文件类型。 请参见函数工程打包规范在本地打包代码文件
为什么首次调用函数时速度会比较慢? 因为函数是冷启动的,所以如果有初始化或者函数中有第一次执行比较耗时的操作(例如加载函数代码及依赖包),第一次请求会比较慢,后面接着的请求就会很快,因为此时容器还没有销毁。如果间隔一分钟没有请求,容器就会销毁。 如果您使用的是C#或者Go语言,因为机制原因
修订记录 表1 修订记录 发布日期 修订记录 2022-11-21 新增接口内容如下: 分页查询指定函数流记录 2022-11-14 新增接口内容如下: 创建依赖包版本 获取依赖包版本列表 获取依赖包版本详情 删除依赖包版本 获取按指定指标排序的函数列表 获取函数预留实例配置列表
调用函数 FunctionGraph的函数执行需要多长时间? FunctionGraph的函数执行包含了哪些过程? FunctionGraph函数长时间不执行时,相关的实例会如何处理? 如何获取函数运行过程中的内存使用量信息? 为什么首次调用函数时速度会比较慢? 为什么函数实际使用内存大于预估内存
示例3:上传代码到OBS桶,并使用OBS链接创建函数 场景描述 本章节以Python 2.7为例,指导您在本地编码,然后将代码文件上传到OBS桶,实现通过OBS链接创建函数。 API的调用方法请参见如何调用API。 前提条件 已在OBS服务中创建OBS桶。 约束与限制 请确保函数与
函数开发简介 运行时概述 在函数工作流服务中创建函数时,需选定所需的运行时(Runtime)。函数工作流服务通过支持多种编程语言的运行时,为相应语言提供执行环境,用户可以使用函数工作流服务提供的运行时或自行构建定制运行时。 函数支持的运行时语言 FunctionGraph函数Runtime
函数依赖包概述 函数依赖包简介 函数依赖包包含支持函数业务代码运行的公共库,可以将代码所需的公共库封装成依赖包进行单独管理,便于多函数共享,同时也能有效缩减函数代码在部署与更新过程中的体积。 FunctionGraph支持对同一依赖包进行版本迭代,即同一依赖包可拥有多个版本,便于系统化管理
案例概述 场景介绍 该案例演示客户如何使用FunctionGraph 与IoTDA 服务组合,处理物联网设备上报以及设备状态变动的相关数据。物联网设备在IoTDA 平台进行管理,设备产生的数据可以从IoTDA直接流转触发FunctionGraph 的函数运行。用户可以根据需要编写函数处理这些数据
案例概述 场景介绍 MetaERP业务场景进行微服务Serverless化改造,如图1所示,将低频使用但资源占用大的微服务逻辑,拆分成独立函数,常驻实例缩容到0;剩余微服务逻辑以Spring兼容方式进行函数化,实现函数化后的微服务快速冷启动和弹性,常驻实例减半。 图1 MFA Serverless
开发事件函数 Node.js函数接口定义 Node.js 6.10函数接口定义 export.handler = function(event, context, callback) 入口函数名(handler):入口函数名称, 需和函数执行入口处用户自定义的入口函数名称一致。 执行事件
使用FunctionGraph部署AI对话ChatGLM3方案概述 AI对话ChatGLM3及其应用场景 ChatGLM3是智谱AI和清华大学KEG实验室联合发布的第三代双语对话大语言模型,具有完整的功能支持和全面的开源序列,凭借其卓越的语言理解和生成能力,为用户提供高效、个性化和智能化的对话交互体验
如何制作函数依赖包? 制作函数依赖包推荐在EulerOS环境中进行。使用其他系统打包可能会因为底层依赖库的原因,运行出问题,比如找不到动态链接库。 如果安装的依赖模块需要添加依赖库,请将依赖库归档到zip依赖包文件中,例如,添加.dll、.so、.a等依赖库。 搭建EulerOS环境