检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
管理变量 添加全局变量 选择“配置中心>机器人管理>流程配置”,进入流程配置界面。 选择“资源管理 > 变量管理”,在新打开的页面单击“”。 如图所示填写“变量名称”,设置变量的“数据类型”, 选择“加密类型”,单击“确定”。 如果您要求的变量包含个人数据,例如客户的身份证号等信
分布式训练任务 八爪鱼自动驾驶平台的多机分布式训练功能可以帮助用户加快模型训练速度,提高训练效率,并支持更大规模的深度学习任务。通过多机分布式训练,用户可以将训练任务分配到多台计算机或服务器上并行进行,充分利用硬件资源,加快模型收敛速度,提高训练效果。平台支持多种深度学习框架,如
用户可通过流程检查,查看复合图元、业务接口、存储过程、灰度规则、资源模板、全局变量、流程变量在所有流程的使用情况。 操作步骤 选择“配置中心 >机器人管理>流程配置 ”,进入流程配置管理页面。 选择“流程管理 > > > 流程检查”,点击“”按钮,获取最新的统计数据。 图1 流程检查
修改说明 2024-06-19 下线多模态播报机器人接口。 2024-04-07 修改接口错误描述。 2022-12-27 新增多模态播报机器人接口 9.1-视频管理 9.2-形象管理 9.3-素材管理 2022-04-29 删除话务机器人相关接口。 2021-09-26 删除错误码ModelArts
辑。 创建训练任务,详细请参考模型训练。 删除训练任务。 切换到其他的训练工程、联邦学习工程、训练服务或超参优化服务的模型训练页面中。 模型训练运行环境信息查看和配置。 新建训练工程、联邦学习工程、训练服务或超参优化服务。 2(模型训练任务) 根据训练状态快速检索训练任务。 根据任务创建时间、任务名称检索训练任务。
512 表示训练中所有机器一个step所处理的样本量。影响每一次训练迭代的时长。 TP 8 表示张量并行。 PP 1 表示流水线并行。一般此值与训练节点数相等,与权重转换时设置的值相等。 CP 1 表示context并行,默认为1。应用于训练长序列文本的模型。如果训练时SEQ_L
nizer文件,具体请参见训练tokenizer文件说明。 Step2 创建预训练任务 创建训练作业,并自定义名称、描述等信息。选择自定义算法,启动方式自定义,以及上传的镜像。训练脚本中会自动执行训练前的权重转换操作和数据处理操作。 图1 选择镜像 训练作业启动命令中输入: cd
训练服务 训练算法 模型评测 编译镜像 编译任务 父主题: 自动驾驶云服务全流程开发
模型管理 使用租间管理员账号登录AICC。 选择“配置中心>机器人管理>语义理解管理> 系统管理>模型管理” 单击“新增”,依次输入“名称”、“语言”、“模型类型”、“描述”。 图1 新增模型 单击“保存”,完成配置。 父主题: 其他操作
编辑训练代码(WebIDE) 支持使用WebIDE开发环境编辑代码。 可选择下述一种方式,进入WebIDE开发环境编辑代码: 在“模型训练”菜单页面,“开发环境”为WebIDE环境的情况下,单击模型训练工程所在行的。 在“模型训练”菜单页面,单击模型训练工程所在行,进入详情界面。
LoRA训练 本章节介绍SDXL&SD 1.5模型的LoRA训练过程。LoRA训练是指在已经训练好的模型基础上,使用新的数据集进行LoRA微调以优化模型性能的过程。 启动SD1.5 LoRA训练服务 使用ma-user用户执行如下命令运行训练脚本。 sh diffusers_lora_train
API概览 CBS服务提供了如下接口,方便用户使用对话机器人。 表1 接口说明 接口类型 说明 问答机器人在线问答接口 主要功能接口:问答请求、问答统计、获取问题提示、问答满意度评价、问答转人工、单轮问答(即将下线)的接口。 历史API接口:问答会话(仅支持老用户)。
理日志,帮助开发者进行问题的定界和定位。 图6 在线调试-真实设备结构 在烟感产品的开发空间,选择“在线调试”,并单击“新增测试设备”。 在弹出的“新增测试设备”窗口,选择“真实设备”,输入测试设备的参数,单击“确定”。 图7 在线调试-新增测试设备 注:如果使用DTLS传输层安全协议接入时,请妥善保存密钥。
LoRA训练 本章节介绍SDXL&SD 1.5模型的LoRA训练过程。LoRA训练是指在已经训练好的模型基础上,使用新的数据集进行LoRA微调以优化模型性能的过程。 训练前需要修改数据集路径、模型路径。脚本里写到datasets路径即可。 run_lora_sdxl中的vae路径要准确写到sdxl_vae
在“参数配置”填写“最大训练轮次”。“最大训练轮次”指模型迭代次数,即训练中遍历数据集的次数,参数范围[30,100]。 确认信息后,单击“训练”。 模型训练一般需要运行一段时间,等模型训练完成后,“模型训练”页面下方显示查看训练详情。 查看训练详情 模型训练完成后,可在“模型训练”页面查看“
运行完成的工作流会自动部署为相应的在线服务,您只需要在相应的服务详情页面进行预测即可。 在服务部署节点单击“实例详情”直接跳转进入在线服务详情页,或者在ModelArts管理控制台,选择“模型部署 > 在线服务”,单击生成的在线服务名称,即可进入在线服务详情页。 在服务详情页,选择“预测”页签。
本机网络提供传输效率,缩短训练时间。 Volcano批量调度系统:加速AI计算的利器 Volcano是一款构建于Kubernetes之上的增强型高性能计算任务批量处理系统。作为一个面向高性能计算场景的平台,它弥补了Kubernetes在机器学习、深度学习、HPC、大数据计算等场景
Finetune训练 本章节介绍SDXL&SD 1.5模型的Finetune训练过程。Finetune是指在已经训练好的模型基础上,使用新的数据集进行微调(fine-tuning)以优化模型性能。 训练前需要修改数据集路径、模型路径。数据集路径格式为/datasets/pokemon-dataset/image_0
训练集是对话语料的集合,类似文件夹的作用,可以将不同来源或者不同时段获取的对话语料放在不同的对话训练集中。 当您有大量的语料信息时,可通过创建训练集、导入语料并标注语料的方式配置训练集。 选择用户常用问法或训练集训练版本,配置合适的阈值,版本训练发布成功,技能变为“运行中”状态后,才可以进行对话体验。 数据标注(可选)
None 操作指导 技能管理 CBS 视频介绍 10:01 CBS技能管理-意图识别介绍 云容器引擎 CCE 简介 07:25 云容器引擎简介 云容器引擎 CCE 服务介绍 03:23 云容器引擎服务介绍 计算 云容器引擎 CCE 熟悉云容器引擎控制台 02:35 熟悉云容器引擎控制台