检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
什么是弹性负载均衡 弹性负载均衡(Elastic Load Balance,简称ELB)是将访问流量根据分配策略分发到后端多台服务器的流量分发控制服务。弹性负载均衡可以通过流量分发扩展应用系统对外的服务能力,同时通过消除单点故障提升应用系统的可用性。
、网络等服务,由FunctionGraph提供和管理底层计算资源,包括服务器CPU、内存、网络和其他配置/资源维护、代码部署、弹性伸缩、负载均衡、安全升级、资源运行情况监控等,用户只需要按照FunctionGraph支持的编程语言提供程序包,上传即可运行。 父主题: 产品咨询
如何启用WebSocket支持? 无需配置,当选用HTTP监听时,默认支持无加密版本WebSocket协议(WS协议);当选择HTTPS监听时,默认支持加密版本的WebSocket协议(WSS协议)。 父主题: 监听器
FunctionGraph创建云服务委托。 步骤一:提交工单申请加入WebSocket白名单 AI绘画ComfyUI应用和AI绘画ComfyUI+FLUX应用需用到WebSocket特性,当前WebSocket特性处于公测阶段,使用应用前请先在工单系统中提交工单申请加入公测白名单。
PIG触发器,并为FunctionGraph创建云服务委托。 步骤一:提交工单申请加入WebSocket白名单 AI对话ChatGLM3应用需用到WebSocket特性,当前WebSocket特性处于公测阶段,使用应用前请先在工单系统中提交工单申请加入公测白名单。 选择问题所属产品:选择“函数工作流
现透明、准确和实时的伸缩,应付业务峰值的访问。 用户无需关心峰值和空闲时段的资源需要申请多少资源,系统根据请求的数量自动扩容/缩容。自动负载均衡将请求分发到函数运行实例。 同时系统会根据流量负载的模式来智能预热实例,以缓解冷启动对业务的影响。 事件触发 通过事件触发机制,集成多种
如何使用WebSocket 使用说明 开发高级页面时,如果需要消息主动推送、高实时数据展示,您需要使用WebSocket来实现后台数据调用。 WebSocket是一种HTML5提供的网络传输协议。
部署AI对话ChatGLM3准备工作 在FunctionGraph应用中心部署AI对话ChatGLM3应用前,需完成以下准备工作: 提交工单申请加入WebSocket白名单 创建虚拟私有云VPC和子网 购买专享版APIG实例 为FunctionGraph创建云服务委托 部署和使用AI对话ChatGLM3应用
快速构建高可用,自动伸缩的Web/移动应用后端。比如小程序、网页/App、聊天机器人、BFF等。 其优势有: 高可用,利用OBS,Cloud Table的高可用性实现网站数据的高可靠性,利用API Gateway和FunctionGraph的高可用性实现网站逻辑的高可用。 灵活扩
步骤二:使用默认模型和临时域名进行AI绘画 ComfyUI前端页面会不间断地发送HTTP请求以维持与服务器的连接,并且需要保持WebSocket连接以同步实时状态,这会导致函数弹性实例无法退出,因此ComfyUI页面打开时会持续使用计算资源,即页面打开就会产生计算资源的使用费
在FunctionGraph应用中心部署AI绘画ComfyUI应用和AI绘画ComfyUI+FLUX应用前,需完成以下准备工作: 提交工单申请加入WebSocket白名单 创建虚拟私有云VPC和子网 购买专享版APIG实例 为FunctionGraph创建云服务委托 部署和使用AI绘画ComfyUI/ComfyUI+FLUX应用
立的风火水电,AZ内逻辑上再将计算、网络、存储等资源划分成多个集群。一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。 项目 公有云区域默认对应一个项目,这个项目由系统预置,用来隔离物理区域间的资源(计算资源、存储资源和网络资源),以默认项目
部署和使用AI对话ChatGLM3应用 在FunctionGraph应用中心,使用AI对话ChatGLM3模板创建应用,并配置相关委托和APIG实例。创建成功后,即可使用内置默认模型和临时域名开始AI对话体验。 前提条件 完成部署AI对话ChatGLM3准备工作,委托中包含“SWR
Server,ECS),容器(CCE&CCI),裸金属服务器(BMS)提供共享访问。SFS为用户提供一个完全托管的共享文件存储,能够弹性伸缩至PB规模,具备高可用性和持久性,为海量数据、高带宽型应用提供有力支持。适用于多种应用场景,包括HPC、媒体处理、文件共享、内容管理和Web服务等。 SFS Turbo文件系统
进阶使用:使用专享版APIG触发器提升性能 应用场景 通过应用中心部署的Stable Diffusion应用使用的APIG触发器为共享版APIG,其带宽等资源由所有共享版APIG用户共同使用。因此,若业务使用需求高,建议将函数触发器改用为专享版APIG触发器,专享版与共享版APIG的具体差异可参考产品规格差异说明。
GPU函数概述 Serverless GPU是一种高度灵活、高效利用、按需分配GPU计算资源的新兴云计算服务。GPU能力Serverless化,通过提供一种按需分配的GPU计算资源,在一定范围内有效地解决原有GPU长驻使用方式导致的低资源利用率、高使用成本和低弹性能力等痛点问题。本文将介绍Serverless
为函数配置预留实例 “华北-北京四、华东-上海一”区域已支持配置定时伸缩预留实例。 概述 函数工作流提供了按量和预留两种类型的实例。 按量实例是由函数工作流根据用户使用函数的实际情况来创建和释放,当函数工作流收到函数的调用请求时,自动为此请求分配执行环境。 预留实例是将函数实例的
部署和使用AI绘画Stable Diffusion应用 在FunctionGraph应用中心,使用AI绘画Stable-Diffusion模板创建应用并配置相关委托,创建成功后即可使用内置默认模型和临时域名进行AI绘画。 前提条件 完成为FunctionGraph创建云服务委托,委托中包含“SWR
产品功能 函数管理 提供控制台管理函数。 函数支持Node.js、Java、Python、Go、PHP、Cangjie等多种运行时语言,同时支持用户自定义运行时,说明如表1所示。 建议使用相关语言的最新版本。 表1 运行时语言说明 运行时语言 支持版本 Node.js 6.10、8
上传与使用自定义模型(可选) FunctionGraph应用中心的AI对话应用中内置了默认模型ChatGLM3-6B,如需使用更多自定义模型进行AI对话,需要在创建成功的应用中初始化自定义模型挂载文件系统,并添加环境变量使用自定义模型。 前提条件 完成部署AI对话ChatGLM3准备工作,委托中包含“SWR
上传自定义模型(可选) FunctionGraph应用中心的AI绘画Stable Diffusion应用中内置了默认模型,如需使用更多自定义模型进行AI绘画,需要在创建成功的应用中初始化自定义模型挂载文件系统,即可上传自定义模型至文件系统进行AI绘画。 前提条件 完成为Funct