检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
代码仓管理是开发中心集成代码托管CodeArts Repo服务的能力,是遵循Git的基本运行模式的分布式版本管理平台,其具备安全管控、成员/权限管理、分支保护/合并、在线编辑、统计服务等功能,旨在解决软件开发者在跨地域协同、多分支并发、代码版本管理、安全性等方面的问题。 关于代码仓管理的常见问题请参见代码托管(CodeArts
选择左侧导航栏的“服务目录 > 一方服务”。 在一方服务页面,选择“微服务实例列表”页签。 单击微服务实例列表操作列的“上线”,将实例调整为上线状态。 下线实例 将在线的微服务调整为下线状态。下线实例将会让微服务实例不再接收流量,请确认后操作。 在微服务实例列表中,单击微服务实例列表操作列的“下线”。 在
本文介绍如何将微调后的模型或部分平台资产中心的模型部署为模型服务。 前提条件 已购买推理单元资源,具体购买方法请参见购买AI原生应用引擎包年包月资源。 由于在线运行需消耗资源,请确保账户有可用资源,且用户费用状态正常。 需要具备AI原生应用引擎管理员或开发者权限,权限申请操作请参见AppStage组织成员申请权限。
服务器无法根据客户端请求的内容特性完成请求。 407 Proxy Authentication Required 请求要求代理的身份认证,与401类似,但请求者应当使用代理进行授权。 408 Request Time-out 服务器等候请求时发生超时。 客户端可以随时再次提交该请求而无需进行任何更改。
AppStage开发中心知识库是面向开发团队的知识管理系统,支持知识全生命周期管理,帮助您完成智能、安全的知识作业,提供层级式的目录树、多人在线协同编辑等功能。 目前此功能仅支持白名单用户通过提交工单申请使用。详细操作请参考提交工单。 前提条件 已获取项目经理、开发人员或测试人员角色权限,权限申请方法请参见申请权限。
计费项说明 适用的计费模式 计费公式 ChatGLM3-6B大模型服务API在线调用 根据实际输入和输出tokens总量计费,平台提供算力支持。 按需计费 千tokens * 每千tokens单价 大模型微调服务API在线调用-SFT局部调优 根据实际输入和输出tokens总量计费,平台提供算力支持。
M3-6B服务、大模型调优服务API在线调用。 套餐包单价+按需计费(ChatGLM3-6B服务、大模型调优服务API在线调用) 知识库容量:50GB 智能应用运行时引擎(20实例):2个 ChatGLM3-6B服务、大模型调优服务API在线调用根据实际输入和输出tokens总量计费,计费规则请参考按需计费
ring命名空间。删除cluster-monitoring插件不会删除ers-monitoring命名空间。 ers-manager是安装代理插件cluster-agent所用的命名空间,使用运维中心ERS纳管CCE容器集群时,会自动为该集群安装cluster-agent插件,用
仅适用于使用“上传卡片”方式新建的卡片。 编辑卡片 卡片形式:在需要编辑的卡片上,单击“编辑”。 列表形式:在对应的“操作”列下,单击“编辑”。 说明: 适用于使用“在线构建”、“模板构建”方式新建的卡片。 查看卡片详情 卡片形式:单击“更多 > 详情”,可以查看卡片详情。 列表形式:在对应的“版本号”列下,单击版本号。
新建及管理我的卡片 新建卡片分类为卡片分组 使用在线构建方式新建卡片 使用模板构建方式新建卡片 使用离线构建方式新建卡片 管理我的卡片 父主题: 在运营中心自定义运营看板
营中心指标增量包-100个指标 预置模型服务调用 API SaaS:ChatGLM3-6B大模型服务API在线调用 自定义模型训练 API SaaS:大模型微调服务API在线调用-SFT局部调优 说明: 按需仅适用于AppStage的AI原生应用引擎。 变更计费模式 不支持。 不支持。
对处于保留期的按需计费资源执行任何操作。 保留期到期后,如果您仍未支付账户欠款,那么ChatGLM3-6B大模型服务API在线调用、大模型微调服务API在线调用-SFT局部调优将无法再使用。 图1 按需计费AI原生应用引擎资源生命周期 华为云根据客户等级定义了不同客户的宽限期和保留期时长。
tion中参数的值来标识灰度。 后端灰度节点的判断 后端的节点在自己的microservice.yaml文件中设置参数描述(参照CSE开发网站)。 按照版本筛选灰度节点,需要在yaml中的service_description中先定义版本号,然后在管理台上选择按照版本进行灰度,填入定义的版本。
负载均衡”。 选择左侧导航栏的“监听管理”。 在监听管理页面,单击监听名称。 在监听详情页面选择“后端服务器”页签,检查该后端服务器集群中的节点是否都在线,如果都下线会报此错误。 父主题: SLB同步异常相关问题
微服务平台(NUWA Runtime)可以对微服务本身及其相关的资源进行管理。 通过微服务平台管理微服务 配置负载均衡 负载均衡(SLB)提供反向代理、负载均衡、路由分发、灰度分流、限流降级、访问控制、监控告警等能力。 配置运维中心负载均衡 管理Cloud Map中的服务资源 服务发现(Cloud
读节点发生故障,单线程读重试 √ 基于集中式数据源信息管理和动态变更 √ 基于JDBC规范,很容易扩展支持实现JDBC规范的数据源 √ 应用直连数据库,无代理 √ 平滑加减数据库节点 √ 提供hint方式或者是编码式强制某条SQL读取从库或者主库等 √ AI原生应用引擎SDK功能介绍 表5 AI原生应用引擎SDK功能矩阵
择“资产中心” ,选择“工具”页签,单击工具卡片,在工具详情页面可以查看工具描述、执行动作、参数配置等信息。 自创建的工具:工具是API的代理或容器,用户可以将常用API封装为工具。在创建工具时,需要先将选定的API服务注册为一个工具,然后再添加该服务下的API作为工具的执行动作。具体介绍请参见创建工具。
微调任务执行完成后,单击“操作”列的“发布”,发布模型。 步骤三:部署模型 部署模型是将模型部署为在线服务,通过创建部署服务实现,创建成功后,可以对在线服务可以进行预测和调用。本文需要为基座模型(原模型)和微调后的新模型分别创建模型服务。由于在线运行需消耗资源,请确保账户未欠费。 在AI原生应用引擎的左侧导航栏选择“模型中心
生费用,请在自动续费扣款日(默认为到期前7日)之前关闭自动续费。 按需计费资源 对于按需计费模式的资源,例如按需计费的大模型微调服务API在线调用-SFT局部调优,如果不再使用这些资源且需停止计费,请删除相应资源。 退订包年包月资源以停止计费 登录AppStage控制台,默认进入AppStage控制台“总览”页。
负载均衡(Software/Server Load Balancer,简称SLB)基于Nginx/OpenResty构建,作为业务前置的流量开关,提供反向代理;负载均衡、路由分发、灰度分流、限流降级、访问控制、监控告警等能力。 服务发现 服务发现(NUWA Cloud Map,简称Cloud M