检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
预览区域,您可以看到模型服务状态为“部署中”。 部署完成后,模型服务状态变为“运行中”,此时才可进行模型调测及模型效果预览。 (可选)在模型调测区域,参考调测模型进行模型调测。 (可选)在右侧“模型效果预览”区域,可通过以下两种方式进行模型测试。 在对话输入框输入测试语句后按Enter键或单击进行模型测试。
自定义看板配置流程介绍 运营看板使用流程如图1所示,包括“新建我的卡片”和“新建我的屏幕”。 图1 使用流程 新建我的卡片 通过在线构建、使用公共卡片模板及离线构建的方式构建自定义卡片。 (可选)新建并发布屏幕模板 通过关联布局和卡片、设置卡片消息联动、配置样例页面来创建屏幕模板。
基于NUWA微服务开发框架,预集成构建云服务业务分布式架构所需的各个组件及高可用能力,实现开箱即用。 提供业务运行时管理,支持业务优雅启停、启动加速、在线诊断等能力。 提供流量控制、资源动态伸缩、容错容灾等能力,使能业务具备韧性。 提供云原生中间件与数据库管理,结合华为面向10亿+移动用户应用治理经验,兼具高并发与高可靠能力。
2(灰度),业务观察情况:pod正常,全网流量都引入生产节点(2个),灰度节点(2个)上没有流量 - name: gray_slbLogcollector_runtime_upgrade #升级服务,将灰度流量设置为50%
M3-6B大模型服务API在线调用、大模型微调服务API在线调用-SFT局部调优,按需计费模式能大幅降低客户的业务成本。 适用计费项 AI原生应用引擎的以下计费项支持按需计费。 表1 适用计费项 计费项 说明 ChatGLM3-6B大模型服务API在线调用 根据实际输入和输出tokens总量计费,平台提供算力支持。
运营中的重要数据,支撑下一步运营动作,提升产品运营效率。 功能介绍 提供丰富的卡片类型,供看板选用。卡片构建方式包括:使用在线构建方式构建图表卡片、使用在线构建方式构建表单卡片、使用模板构建方式新建卡片、使用离线构建方式新建卡片。 在看板编辑页面,通过拖拉拽的方式,以图表的形式进行呈现,直观展现产品运营看板数据。
在“上传文档”对话框,选择“交付方式”为“在线文档”,单击“创建文档”,进入文档编辑页面进行内容写作,文档内容将实时自动保存,创建在线文档成功。 如需更换文档交付方式,先删除此在线文档。删除文档后其全部内容将被清空,且内容将无法恢复,请谨慎操作。 (可选)如需更新在线文档,具体操作如下: 返回“
分流配置页面的其他相关操作如表2所示。 表2 分流配置相关操作 操作 说明 插入无流量阶段 将在第一阶段前插入阶段作为无流量阶段,原来的第一阶段变为第二阶段。 插入无流量阶段只能在灰度服务初始化或灰度完成时操作。 如果不需要无流量阶段,可以修改规则或删除阶段。 导入分流配置 单击“导入分流配置”。
分流配置页面的其他相关操作如表2所示。 表2 分流配置相关操作 操作 说明 插入无流量阶段 将在第一阶段前插入阶段作为无流量阶段,原来的第一阶段变为第二阶段。 插入无流量阶段只能在灰度服务初始化或灰度完成时操作。 如果不需要无流量阶段,可以修改规则或删除阶段。 导入分流配置 单击“导入分流配置”。
发布 > 调测发布”。 在“调测发布”页面单击“创建活动”,在“创建调测发布活动”页面,设置版本名称、备注(可选)。 调测发布的版本名称与标准发布的主版本名称前三段一致,仅需定义第四段编号,且第四段编号不能与标准发布的主版本名称第四段编号相同。 单击“确定”,在“调测发布”页面的
自接入的模型在模型调测的时候报错是什么原因? 接入第三方模型服务时,填写的模型名称必须为该模型的模型ID/模型编码(登录第三方模型厂商官网查看),例如:Baichuan4、deepseek-chat、glm-4-air,如图1所示,否则会导致模型不可用。 图1 接入模型服务 父主题:
署后即可进行调测/体验、调用。 开源模型chatglm3-6b 平台提供了对应的模型服务API,但是该模型能力有限,只能作为问答模型,不能作为思考模型,首次使用该模型服务API需要订购免费的“ChatGLM3-6B大模型服务API在线调用”资源,订购后即可进行调测/体验、调用,订购操作请参见购买AppStage。
代码仓管理是开发中心集成代码托管(CodeArts Repo)服务的能力,是遵循Git的基本运行模式的分布式版本管理平台,其具备安全管控、成员/权限管理、分支保护/合并、在线编辑、统计服务等功能,旨在解决软件开发者在跨地域协同、多分支并发、代码版本管理、安全性等方面的问题。 本章节介绍如何使用开发中心集成的CodeArts
代码仓管理是开发中心集成代码托管CodeArts Repo服务的能力,是遵循Git的基本运行模式的分布式版本管理平台,其具备安全管控、成员/权限管理、分支保护/合并、在线编辑、统计服务等功能,旨在解决软件开发者在跨地域协同、多分支并发、代码版本管理、安全性等方面的问题。 关于代码仓管理的常见问题请参见代码托管(CodeArts
Agent问答的时候没有回答 思考模型没有配置鉴权,或者鉴权失效了,可以通过模型调测功能测试思考模型是否正常,具体操作请参见调测/体验模型。 父主题: AI原生应用引擎
AppStage开发中心知识库是面向开发团队的知识管理系统,支持知识全生命周期管理,帮助您完成智能、安全的知识作业,提供层级式的目录树、多人在线协同编辑等功能。 目前此功能仅支持白名单用户通过提交工单申请使用。详细操作请参考提交工单。 前提条件 已获取项目经理、开发人员或测试人员角色权限,权限申请方法请参见申请权限。
maxReplicas]之间,否则无法保存。 非灰度期间,如果配置并打开了HPA,不允许扩缩容,目标实例数输入框和保存按钮为禁用状态。 缩减超过50%需要评估对业务流量影响,建议分批缩减。 查看K8S事件 单击实例管理列表操作列的“K8S事件”,即可查看K8S事件。具体介绍请参见在微服务平台查看K8S事件。
maxReplicas]之间,否则无法保存。 非灰度期间,如果配置并打开了HPA,不允许扩缩容,目标实例数输入框和保存按钮为禁用状态。 缩减超过50%需要评估对业务流量影响,建议分批缩减。 查看K8S事件 单击实例管理列表操作列的“K8S事件”,即可查看K8S事件。具体介绍请参见在微服务平台查看K8S事件。
getInvocationContext().addContext("x-is-gray", "1")。 第一种方式直接在请求流量的URL中通过设置参数的值来标识灰度流量,第二种是业务在调用SDK之前改变invocation中参数的值来标识灰度。 后端灰度节点的判断 后端的节点在自己的microservice
署后即可进行调测/体验、调用。 开源模型chatglm3-6b 平台提供了对应的模型服务API,但是该模型能力有限,只能作为问答模型,不能作为思考模型,首次使用该模型服务API需要订购免费的“ChatGLM3-6B大模型服务API在线调用”资源,订购后即可进行调测/体验、调用,订购操作请参见购买AppStage。