检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
选择左侧导航栏的“服务目录 > 一方服务”。 在一方服务页面,选择“微服务实例列表”页签。 单击微服务实例列表操作列的“上线”,将实例调整为上线状态。 下线实例 将在线的微服务调整为下线状态。下线实例将会让微服务实例不再接收流量,请确认后操作。 在微服务实例列表中,单击微服务实例列表操作列的“下线”。 在
代码仓管理是开发中心集成代码托管(CodeArts Repo)服务的能力,是遵循Git的基本运行模式的分布式版本管理平台,其具备安全管控、成员/权限管理、分支保护/合并、在线编辑、统计服务等功能,旨在解决软件开发者在跨地域协同、多分支并发、代码版本管理、安全性等方面的问题。 本章节介绍如何使用开发中心集成的CodeArts
选择左侧导航栏的“服务目录 > 一方服务”。 在一方服务页面,选择“微服务实例列表”页签。 单击微服务实例列表操作列的“上线”,将实例调整为上线状态。 下线实例 将在线的微服务调整为下线状态。下线实例将会让微服务实例不再接收流量,请确认后操作。 在微服务实例列表中,单击微服务实例列表操作列的“下线”。 在
代码仓管理是开发中心集成代码托管CodeArts Repo服务的能力,是遵循Git的基本运行模式的分布式版本管理平台,其具备安全管控、成员/权限管理、分支保护/合并、在线编辑、统计服务等功能,旨在解决软件开发者在跨地域协同、多分支并发、代码版本管理、安全性等方面的问题。 关于代码仓管理的常见问题请参见代码托管(CodeArts
本文介绍如何将微调后的模型或部分平台资产中心的模型部署为模型服务。 前提条件 已购买推理单元资源,具体购买方法请参见购买AI原生应用引擎包年包月资源。 由于在线运行需消耗资源,请确保账户有可用资源,且用户费用状态正常。 需要具备AI原生应用引擎管理员或开发者权限,权限申请操作请参见AppStage组织成员申请权限。
开发中心深度集成CodeArts服务的功能,需组织管理员或项目经理对当前服务关联CodeArts项目,后续的服务开发过程中才能正常使用CodeArts服务的代码托管、流水线、编译构建功能;同时在服务配置页面,可查看当前服务的基础信息(如所属产品、所属部门、服务状态等)。 在开发中心首页下方的“我的团队”区域,选择需要操作的团队卡片,进入该团队空间。
AppStage开发中心知识库是面向开发团队的知识管理系统,支持知识全生命周期管理,帮助您完成智能、安全的知识作业,提供层级式的目录树、多人在线协同编辑等功能。 目前此功能仅支持白名单用户通过提交工单申请使用。详细操作请参考提交工单。 前提条件 已获取项目经理、开发人员或测试人员角色权限,权限申请方法请参见申请权限。
仅适用于使用“上传卡片”方式新建的卡片。 编辑卡片 卡片形式:在需要编辑的卡片上,单击“编辑”。 列表形式:在对应的“操作”列下,单击“编辑”。 适用于使用“在线构建”、“模板构建”方式新建的卡片。 查看卡片详情 卡片形式:单击“更多 > 详情”,可以查看卡片详情。 列表形式:在对应的“版本号”列下,单击版本号。
计费项说明 适用的计费模式 计费公式 ChatGLM3-6B大模型服务API在线调用 根据实际输入和输出tokens总量计费,平台提供算力支持。 按需计费 千tokens * 每千tokens单价 大模型微调服务API在线调用-SFT局部调优 根据实际输入和输出tokens总量计费,平台提供算力支持。
M3-6B服务、大模型调优服务API在线调用。 套餐包单价+按需计费(ChatGLM3-6B服务、大模型调优服务API在线调用) 知识库容量:50GB 智能应用运行时引擎(20实例):2个 ChatGLM3-6B服务、大模型调优服务API在线调用根据实际输入和输出tokens总量计费,计费规则请参考按需计费
以便后续部署变更。如果版本未关联流水线,单击左上角“流水线管理”,在“流水线管理”页面为当前版本关联并执行流水线,具体操作请参考通过流水线编译构建版本。 在“调测发布 > 添加发布软件包”页面,单击“添加基线化软件包”(最多可添加20个基线化软件包),弹出“添加基线化软件包”页面。
机器,也可手动添加,在机器上执行作业脚本。 可使用的主机为已纳管至VMS的主机,集群为在部署服务中创建的虚拟机集群,具体操作请参见纳管Linux主机或创建虚拟机集群。 脚本内容 配置脚本内容。 分批执行 选择是否分批执行,根据设置的数据或百分数分多次执行。勾选后还需要设置每次下发
新建及管理我的卡片 新建卡片分类为卡片分组 使用在线构建方式新建卡片 使用模板构建方式新建卡片 使用离线构建方式新建卡片 管理我的卡片 父主题: 在运营中心自定义运营看板
对处于保留期的按需计费资源执行任何操作。 保留期到期后,如果您仍未支付账户欠款,那么ChatGLM3-6B大模型服务API在线调用、大模型微调服务API在线调用-SFT局部调优将无法再使用。 图1 按需计费AI原生应用引擎资源生命周期 华为云根据客户等级定义了不同客户的宽限期和保留期时长。
营中心指标增量包-100个指标 预置模型服务调用 API SaaS:ChatGLM3-6B大模型服务API在线调用 自定义模型训练 API SaaS:大模型微调服务API在线调用-SFT局部调优 说明: 按需仅适用于AppStage的AI原生应用引擎。 变更计费模式 不支持。 不支持。
负载均衡”。 选择左侧导航栏的“监听管理”。 在监听管理页面,单击监听名称。 在监听详情页面选择“后端服务器”页签,检查该后端服务器集群中的节点是否都在线,如果都下线会报此错误。 父主题: SLB同步异常相关问题
华北-北京四 创建需求 代码仓管理 代码仓管理是遵循Git的基本运行模式的分布式版本管理平台,其具备安全管控、成员/权限管理、分支保护/合并、在线编辑、统计服务等功能,旨在解决软件开发者在跨地域协同、多分支并发、代码版本管理、安全性等方面的问题。 支持区域: 华北-北京四 创建代码仓
平台提供了对应的模型服务API,但是该模型能力有限,只能作为问答模型,不能作为思考模型,首次使用该模型服务API需要订购免费的“ChatGLM3-6B大模型服务API在线调用”资源,订购后即可进行调测/体验、调用,订购操作请参见购买AppStage。 开源模型bge-reranker-large、bge-large-zh-v1
微调任务执行完成后,单击“操作”列的“发布”,发布模型。 步骤三:部署模型 部署模型是将模型部署为在线服务,通过创建部署服务实现,创建成功后,可以对在线服务可以进行预测和调用。本文需要为基座模型(原模型)和微调后的新模型分别创建模型服务。由于在线运行需消耗资源,请确保账户未欠费。 在AI原生应用引擎的左侧导航栏选择“模型中心
生费用,请在自动续费扣款日(默认为到期前7日)之前关闭自动续费。 按需计费资源 对于按需计费模式的资源,例如按需计费的大模型微调服务API在线调用-SFT局部调优,如果不再使用这些资源且需停止计费,请删除相应资源。 退订包年包月资源以停止计费 登录AppStage控制台,默认进入AppStage控制台“总览”页。