检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
前切片内容。 单击切片右下方的,在当前切片前增加新的切片。 单击切片右下方的,在当前切片后增加新的切片。 单击切片右下方的,删除当前切片。 生成新的数据集版本 切片编辑完成后,在数据集列表中单击列表前的。 选择“数据集版本”页签,单击数据集版本操作列的“生成新版本”,更新数据集版本。
通过AppStage的AI原生应用引擎开放的API和调用示例,您可以使用并管理模型服务、知识库等。 API参考 使用前必读 API概览 如何调用API AI原生应用引擎 API接口 07 SDK 应用平台开放丰富的SDK,方便开发者将应用平台的能力快速集成到自己的应用中。 SDK参考
说明:每秒进行merge的写操作数目 } } fs 插件类型 OS 功能说明 统计主机文件系统使用情况,采集数据内容和df -lh命令一致。 当主机上的分区名称为/dev或/dev/shm时,无法采集该分区的数据。 当主机上的分区名称包含/media/或/mnt/时,无法采集该分区的数据 参数配置
同时,您可以体验平台预置的Agent,享受AI带来的便利和乐趣。 数据管理 除平台预置的数据集外,同时还支持创建知识数据集和微调数据集。丰富的知识数据集及强大的索引配置是构建专业化、结构化知识库的基础;微调数据集是模型微调的基础,通过在微调数据集上进行训练,您可以获得改进后的新模型以适应特定任务。
务器上的资源,通常使用URL参数指定要删除的资源。 put:put请求,用于更新服务器上的资源,通常将更新的数据放在请求体中。 patch:请求服务器更新资源的部分内容。当资源不存在的时候,patch可能会去创建一个新的资源。 API请求体架构 请求头 HTTP请求消息的组成部分
登录AI原生应用引擎,在左侧导航栏选择“模型中心 > 我的模型服务 > 我部署的”,model填写为对应模型服务的模型服务调用ID。 租户接入模型服务 登录AI原生应用引擎,在左侧导航栏选择“模型中心 > 我的模型服务 > 我接入的”,model填写为对应模型服务的模型服务调用ID。 frequency_penalty
告警是监控系统的响应组件,它根据指标值的变化按照既定的策略执行响应操作,其主要目的是引起人们对系统当前状态的关注。告警定义包含基于指标的条件或阈值以及当指标值达到或超出定义条件时要执行的操作。 告警通知 告警的通知在所有的告警处理的链路结束以后才会发生。告警处理模块会根据上报告警的上下文获取告警的值班配置,值班配置由业务预置。
按需计费 按需计费是一种先使用再付费的计费模式,适用于无需任何预付款或长期承诺的用户。本文将介绍按需计费资源的计费规则。 适用场景 按需计费适用于资源需求波动的场景,在使用AppStage的用户创建应用、测试模型服务时需要调用ChatGLM3-6B大模型服务API在线调用、大模型
单击,在“添加工作流”弹窗中选择我创建的工作流。您也可以单击“创建工作流”,参考创建工作流创建新的工作流。 工作流模式的Agent只能绑定一个工作流,且此工作流的起始节点必须包含默认的WISEAGENT_USER_INPUT参数,表示用户在问答对话中输入的内容,与Agent的每次对话都会对该工作流进行调用。
说明 模型服务调用ID 是 从“Agent编排中心 > 我的模型服务”列表中“模型服务调用ID”列获取。 对于我收藏的模型及资产中心的模型可以直接使用模型名称,其他的需要使用列表中的模型服务调用ID。 消息 是 选择数组类型的节点输出。 单击可切换为数组样式,配置“角色”和“对话内容(输入)”。
在WiseDBA中查看数据库产生的事件 支持查询GeminiDB(for Cassandra)数据库产生的大Key和热Key事件。 查看大Key事件 单个分区键的行数不能超过10万;单个分区键的大小不超过100MB。 进入AppStage运维中心。 在顶部导航栏选择服务。 单击,选择“微服务开发
在AppStage控制台左侧导航栏选择“AI原生应用引擎”,在AI原生应用引擎详情页面的“我的资源”区域的资源列表中,单击需要停止计费的资源“操作”列的“退订”。 在“退订资源”对话框中,确认要退订的资源,单击“一键输入”自动在输入框填入“退订资源”。 单击“确定”,即可退订该按需计费资源。
OBS终端节点的获取方法如下: 获取已授予OBS桶读写权限的账号。对账号授予桶的读写权限的方法,请参见对其他账号授予桶的读写权限。 登录控制台,选择“存储 > 对象存储服务 OBS”,进入OBS控制台。 鼠标移动到指定桶所在行,在弹出的基本信息中,“Endpoint”参数值即为OBS终端节点。
6 我的待办/我的申请 选择“我的待办”或“我的申请”页签,可查看我名下的待办或申请的相关事项。 说明: 当“我的待办”或“我的申请”超过4条后,将在“我的待办”或“我的申请”区域右上角显示“更多”按钮,单击“更多”可进入“我的待办”/“我的申请”界面查看全部信息。 7 帮助文档 快速跳转至高频使用的功能详细指导文档。
e 中间件 转发策略配置的管理,包括监听下的转发策略、健康检查、后端服务器及动态路由。 WiseCloud::LoadBalancer::GrayConfig 一方服务 灰度服务配置的管理,包括灰度规则的管理及灰度阶段切换。 资源间的关系 图1 资源间的关系 所有的资源必须归属于同一个服务下,才能绑定。
进入AppStage的AI原生应用引擎、开发中心、运维中心、运营中心的快捷入口。用户需要申请不同中心的角色,从而具备对应角色的操作权限,可申请的角色以及对应的权限范围请参见权限管理。 5 我的待办/我的申请 选择“我的待办”或“我的申请”页签,可查看我名下的待办或申请的相关事项。 说明:
种类型的Agent。 LLM模式下,将准备好的模型服务(必选)、工具、工作流及知识库等编排成Agent。 工作流模式下,用户与工作流进行对话,因此必须添加工作流,不支持添加模型、工具、知识库等配置。 2 体验Agent 以对话的形式,对创建的Agent或平台资产中心预置的AI应用
调用子工作流的输出,提供给后续节点使用,如图1所示。 图1 调用子工作流 表1 运行动作属性配置输入参数说明 参数 是否必填项 说明 子流Id 是 子工作流的ID。 单击“获取工作流ID”,进入“我的工作流”列表,单击工作流ID列的复制。 子流输入参数 是 子工作流的输入参数。 父主题:
平台有没有预置模型? 平台预置了开源模型chatglm3-6b,并提供对应的模型服务API,但是该模型能力有限,只能作为问答模型,不能作为思考模型。首次使用该模型服务API需要订购免费的“ChatGLM3-6B大模型服务API在线调用”资源,订购后即可进行体验,订购操作请参见购买AppStage。
开源模型怎么部署? 开源模型的部署需要购买推理单元,具体操作如下: 在AI原生应用引擎的左侧导航栏选择“资产中心”,选择“大模型”页签。 将鼠标光标移至待部署的开源模型卡片上,单击“部署”。 在“创建部署服务”页面,可以查看到需要几个推理单元,单击“购买推理单元资源”。 图1 创建部署服务