检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
计费项说明 适用的计费模式 计费公式 ChatGLM3-6B大模型服务API在线调用 根据实际输入和输出tokens总量计费,平台提供算力支持。 按需计费 千tokens * 每千tokens单价 大模型微调服务API在线调用-SFT局部调优 根据实际输入和输出tokens总量计费,平台提供算力支持。
任务名称 默认显示该训练任务的任务名称。 单击“注册任务”,单击“确认”,注册模型训练任务。 单击“启动任务”,单击“确认”,启动模型训练任务,任务状态显示RUNNING表示任务启动成功。 单击“立即训练”,进行模型训练,可以在“训练历史”中查看训练任务进展。 当模型训练完成后需要在“算法配置”页签,选择当前模型。
选择异常检测算法,支持固定阈值和动态阈值。 固定阈值:简单设置上限或者下限值。一旦数据超过上限或是低于下限则发生异常。 动态阈值:通过训练历史数据,实现对数据特征的学习,构建数据的模型。并利用模型来预测数据的趋势走向。当实际值和预测值相差过大,认为异常。 上限 当算法类型选择固定阈值时,需要设置上限。
营中心指标增量包-100个指标 预置模型服务调用 API SaaS:ChatGLM3-6B大模型服务API在线调用 自定义模型训练 API SaaS:大模型微调服务API在线调用-SFT局部调优 说明: 按需仅适用于AppStage的AI原生应用引擎。 变更计费模式 不支持。 不支持。
在自动驾驶的应用中,云数据可以被标注为包含建筑物、其他小物体、交通工具等信息,以便模型可以识别和理解这些对象。在辅助数据标注的方法中,通过训练模型,可以实现标注结果,从而提高数据的质量和准确性。 前提条件 需要具备AI原生应用引擎管理员或开发者权限,权限申请操作请参见AppStage组织成员申请权限。
“-”和中文括号()。 运维账号 可以选择运维账号或者手动输入账号,用于连接目标机器(选择的资源)。 资源 选择或输入运维账号后,单击“选择资源”,选择需要使用的主机或集群机器,也可手动添加,在机器上执行作业脚本。 可使用的主机为已纳管至VMS的主机,集群为在部署服务中创建的虚拟
对于需要个性化定制模型或者在特定任务上追求更高性能表现的场景,往往需要对大语言模型进行模型微调以适应特定任务。微调数据集是模型微调的基础,通过在微调数据集上进行训练从而获得改进后的新模型。 平台在资产中心预置了部分微调数据集,同时也支持用户根据需求自定义创建微调数据集。本文介绍如何创建微调数据集。 前提条件
自定义看板配置流程介绍 运营看板使用流程如图1所示,包括“新建我的卡片”和“新建我的屏幕”。 图1 使用流程 新建我的卡片 通过在线构建、使用公共卡片模板及离线构建的方式构建自定义卡片。 (可选)新建并发布屏幕模板 通过关联布局和卡片、设置卡片消息联动、配置样例页面来创建屏幕模板。
AI原生应用引擎 我创建的微调数据集会被其他用户调用去训练他们的大模型吗? 模型微调任务一直在等待中是什么原因? 大模型微调需要的数据有要求吗? AI原生应用引擎支持所有数据集进行数据标注吗? AI原生应用引擎中预置了哪些提示语? AI原生应用引擎训练好后的模型如何获取?
提示语是给大模型的指令,它可以是一个问题、一段文字描述,也可以是带有一系列参数的文字描述。 AI原生应用引擎资产中心预置了多款提示语模板,这些模板是基于大量应用场景下的经验或者训练语料而总结出一些优质的提示语组成结构,将其抽离成为一种模板,支持测试、一键快速复制及收藏等。在模型调测时引用提示语模板,可以快速推进引导对
数据管理 数据管理中纳管了用户自定义的和平台预置的数据集,用户使用这些数据集进行模型训练、知识库构建等,快速完成平台使用并验证模型训练效果。 模型管理 用户可以自定义创建模型、模型服务及在线测试模型,检验模型的准确性、可靠性及反应效果。 提示语管理 用户自定义创建的、收藏的以及平台预置的提示语模板进行优化和改进。
M3-6B大模型服务API在线调用、大模型微调服务API在线调用-SFT局部调优,按需计费模式能大幅降低客户的业务成本。 适用计费项 AI原生应用引擎的以下计费项支持按需计费。 表1 适用计费项 计费项 说明 ChatGLM3-6B大模型服务API在线调用 根据实际输入和输出tokens总量计费,平台提供算力支持。
在“上传文档”对话框,选择“交付方式”为“在线文档”,单击“创建文档”,进入文档编辑页面进行内容写作,文档内容将实时自动保存,创建在线文档成功。 如需更换文档交付方式,先删除此在线文档。删除文档后其全部内容将被清空,且内容将无法恢复,请谨慎操作。 (可选)如需更新在线文档,具体操作如下: 返回“
如图1所示。 表1 源文件参数说明 参数名称 参数说明 运维账号 选择运维账号或手动输入账号,用于连接目标机器(选择的资源)。 资源 选择资源机器,将源文件上传至该机器。 文件路径 输入源文件路径,即待分发文件的路径。 图1 上传文件 配置目标文件参数,参数说明如表2所示,配置完成后,单击“执行”。
运营中的重要数据,支撑下一步运营动作,提升产品运营效率。 功能介绍 提供丰富的卡片类型,供看板选用。卡片构建方式包括:使用在线构建方式构建图表卡片、使用在线构建方式构建表单卡片、使用模板构建方式新建卡片、使用离线构建方式新建卡片。 在看板编辑页面,通过拖拉拽的方式,以图表的形式进行呈现,直观展现产品运营看板数据。
灰度列表当前状态列显示灰度执行阶段。 完成灰度发布 分流阶段执行完成后,版本即将全网发布,全网发布意味着所有机器都已升级,分流规则在SLB将不生效,消息会在正常机器+灰度机器的整个群组中负载均衡分发。 在灰度服务管理页面,单击灰度服务列表当前状态列的“灰度管理”。 在灰度管理页面,单击“完成灰度发布”。
推理单元包周期 将基础或者预训练后的模型部署为在线服务时使用的算力单元,通过购买推理单元实现服务QPS扩容。 实例数 可购买的实例数量为1~50个。 AI原生应用引擎基础版 支持知识库容量,智能应用运行时引擎,开通ChatGLM3-6B服务、大模型调优服务API在线调用。 套餐包单价+按
选择使用虚拟机还是容器执行作业。 运维账号 作业类型选择虚拟机时,还需要选择运维账号或者手动输入账号,用于连接目标机器(选择的资源)。 资源 选择需要使用的资源机器,在机器上执行作业脚本。 选择脚本 选择执行脚本。 脚本参数 输入脚本参数。 分批执行 作业类型选择虚拟机时,可以选择是
是否启用灰度 当选择“是”时,分流规则在SLB生效,满足分流规则条件的消息分发到灰度机器群组,不满足分流规则条件的消息分发到生产机器群组。 当选择“否”时,分流规则在SLB不生效。消息会在生产机器+灰度机器的整个群组中负载均衡分发。 全网发布时的路由策略 当选择“默认路由”时,全网发布时在生产+灰度的大集群中负载均衡。
不一致? 如何处理资源间绑定服务不一致? 同一个SQL包重复显示时怎么处理? 更多 AI原生应用引擎 我创建的微调数据集会被其他用户调用去训练他们的大模型吗? 模型微调任务一直在等待中是什么原因? AI原生应用引擎支持所有数据集进行数据标注吗? 更多 开发中心 如何申请组织管理员权限?