检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
开通lts日志上报功能 功能介绍 开通lts日志上报功能。 调用方法 请参见如何调用API。 URI POST /v2/{project_id}/fgs/functions/enable-lts-logs 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String
>This is a simple APIG trigger test</h3>" + "</html>"; int code = 200; boolean isBase64 = false; Map<
函数支持的事件源 本节列出了FunctionGraph函数支持的云服务,可以将这些服务配置为FunctionGraph函数的事件源。在预配置事件源映射后,这些事件源检测事件时将自动调用FunctionGraph函数。 消息通知服务SMN 可以编写FunctionGraph函数来处理
配置和查看函数的调用日志 FunctionGraph函数实现了与云日志服务的对接,用户无需任何配置,即可查询函数日志信息。 在FunctionGraph函数控制台,可以通过以下两种方式查看函数日志。 在测试页签查看日志 函数创建完成后,可以测试函数,在执行结果页,可以查看函数测试日志
获取指定函数的lts日志组日志流配置 功能介绍 获取指定函数的lts日志组日志流配置。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/fgs/functions/{function_urn}/lts-log-detail 表1 路径参数 参数
Redis健康检查 配置Redis定时健康检查 Redis健康检查的作用是判断Redis服务端是否正常工作,使用health_check_interval配置对Redis进行定时健康检查,该配置单位为秒,默认值为0不进行健康检查,代码如下: retry = Retry(ExponentialBackoff
VSCode本地调试 概述 Huawei Cloud FunctionGraph是华为云Serverless产品的VSCode插件。通过该插件,您可以: 快速地在本地创建函数 运行调试本地函数、部署本地函数至云端 拉取云端的函数列表、调用云端函数、上传ZIP包至云端 前提条件 下载
部署AI对话ChatGLM3准备工作 本章节介绍使用FunctionGraph部署AI对话ChatGLM3应用前,如何准备网络环境和授予函数必要权限。 步骤一:申请加入WebSocket白名单 AI对话ChatGLM3应用需用到WebSocket特性,当前WebSocket特性处于公测阶段
部署和使用AI对话ChatGLM3应用 本章节介绍如何通过函数工作流控制台部署AI对话ChatGLM3应用。部署成功后,即可使用内置默认模型和临时域名开始AI对话体验。 前提条件 完成部署AI对话ChatGLM3准备工作,委托中包含“SWR Admin”、“VPC Administrator
部署环境准备 本章节以Linux主机为例,指导您基于KooCLI和软件开发生产线CodeArts搭建一套FunctionGraph函数的CI/CD。 云服务器ECS 该服务器作为CodeArts部署任务的部署主机,用于部署更新FunctionGraph函数。 规格:1vCPUs |
示例3:上传代码到OBS桶,并使用OBS链接创建函数 场景描述 本章节以Python 2.7为例,指导您在本地编码,然后将代码文件上传到OBS桶,实现通过OBS链接创建函数。 API的调用方法请参见如何调用API。 前提条件 已在OBS服务中创建OBS桶。 约束与限制 请确保函数与
使用FunctionGraph部署AI对话ChatGLM3应用 使用FunctionGraph部署AI对话ChatGLM3方案概述 使用FunctionGraph部署AI对话ChatGLM3资源和成本规划 使用FunctionGraph部署AI对话ChatGLM3操作流程 部署AI
使用FunctionGraph部署AI对话ChatGLM3资源和成本规划 本实践根据使用需求的不同,涉及的计费服务有所不同,请参考表1根据具体需求规划资源与成本。 表1 资源和成本规划 资源 资源说明 计费说明 是否必须 函数工作流 FunctionGraph 函数类型:容器镜像HTTP
使用FunctionGraph部署AI对话ChatGLM3操作流程 表1介绍本实践中使用FunctionGraph部署AI对话ChatGLM3应用的总操作流程与说明,其中进阶使用流程主要面向具体的业务使用需求场景,请参考相关说明选择使用。 表1 部署AI对话ChatGLM3应用操作流程说明
使用FunctionGraph部署AI对话ChatGLM3方案概述 AI对话ChatGLM3及其应用场景 ChatGLM3是智谱AI和清华大学KEG实验室联合发布的第三代双语对话大语言模型,具有完整的功能支持和全面的开源序列,凭借其卓越的语言理解和生成能力,为用户提供高效、个性化和智能化的对话交互体验
创建测试事件 功能介绍 创建测试事件 调用方法 请参见如何调用API。 URI POST /v2/{project_id}/fgs/functions/{function_urn}/events 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String
上传与使用自定义模型(可选) FunctionGraph应用中心的AI对话应用中内置了默认模型ChatGLM3-6B,如需使用更多自定义模型进行AI对话,需要在创建成功的应用中初始化自定义模型挂载文件系统,并添加环境变量使用自定义模型。 前提条件 完成部署AI对话ChatGLM3准备工作
使用已有SpringBoot项目构建HTTP函数 方案概述 本章节主要指导使用Springboot开发应用的用户,部署业务到FunctionGraph。 用户通常可以使用SpringInitializr或者IntelliJ IDEA新建等多种方式构建SpringBoot,本章节以Spring.io
免责声明 本应用使用到的ChatGLM3以及镜像构建工程等项目均为社区开源项目,关于开源项目的问题还需用户到开源社区寻求帮助或者自行解决,华为云仅提供算力支持。 本实践仅作为简易示例供用户参考和学习,如需应用于实际生产环境,请参考镜像构建工程自行完善和优化。使用过程中遇到的函数工作流问题
部署deploy deploy命令 deploy 命令是对函数资源进行部署的命令,即将本地在 Yaml文件 中声明的资源部署到线上。 deploy命令解析 当执行命令deploy -h/deploy --help时,可以获取帮助文档。 在该命令中,包括了两个子命令:deploy function