检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
发布数据集到AI Gallery 除了Gallery提供的已有资产外,还可以将个人创建的资产发布至Gallery货架上,供其他AI开发者使用,实现资产共享。 数据集资产上架 登录AI Gallery,选择右上角“我的Gallery”。 在“我的资产 > 数据集”下,选择未发布的数据集
创建自定义认证 功能介绍 创建自定义认证 URI POST /v1/{project_id}/apic/instances/{instance_id}/authorizers 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方式请参见
创建后端API脚本 功能介绍 在某个实例中创建后端API脚本。 URI POST /v1/{project_id}/apic/instances/{instance_id}/livedata-scripts 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是
删除后端API 功能介绍 在某个实例中删除后端API。 URI DELETE /v1/{project_id}/apic/instances/{instance_id}/livedata-apis/{ld_api_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id
负载均衡 负载均衡作用在客户端,是高并发、高可用系统必不可少的关键组件,目标是尽力将网络流量平均分发到多个服务器上,以提高系统整体的响应速度和可用性。 Java Chassis的负载均衡作用于微服务消费者,需要微服务应用集成负载均衡模块,启用loadbalance处理链。 配置示例如下
安全认证概述 开启了安全认证的微服务引擎专享版,通过微服务控制台提供了基于RBAC(Role-Based Access Control,基于角色的访问控制)的系统管理功能。权限与角色相关联,您可以使用关联了admin角色权限的账号创建新账号,根据实际业务需求把合适的角色同账号关联。
快捷应用卡片 在角色桌面模板中,系统管理员和合作伙伴管理员可以在快捷应用卡片中添加应用、管理应用。 在自定义桌面中,仅当前用户可添加、管理卡片中的应用。 添加快捷应用卡片 进入IPDCenter基础服务登录页面,输入账号和密码,单击“登录”。 在角色桌面首页,单击自定义桌面页签上的
获取微服务引擎服务注册发现地址 本章节指导您获取微服务引擎的服务注册发现地址。当引擎创建完成后,注册发现地址不可修改。 获取微服务引擎服务注册发现地址 登录ServiceStage控制台,选择“微服务引擎 > 引擎实例”。 在页面上方“微服务引擎”下拉列表,选择待查看的微服务引擎。
在WiseDBA中查看数据库空间概况 支持查询TaurusDB、GaussDB、GeminiDB(for Cassandra)及RDS for mySQL数据库的实例空间、表空间、库空间的概况及增长趋势。 前提条件 已开启数据采集,具体介绍请参见在WiseDBA中采集数据库元数据。
install_slb_failed for /opt/huawei/openresty exists not for slb 问题现象 SLB部署失败,日志详细信息提示如下: "install_slb_failed for /opt/huawei/openresty exists
准备Jenkins环境 环境信息说明 在Linux虚拟机上安装Jenkins,本实践使用的具体环境信息如下所示。如果使用镜像包部署,需要在虚拟机中安装Docker。 虚拟机:CentOS 7.9 Jenkins:2.319.3 git:yum安装 JDK:11.0.8 Apache
训练脚本说明参考 训练启动脚本说明和参数配置 训练的数据集预处理说明 训练中的权重转换说明 训练tokenizer文件说明 离线训练安装包准备说明 父主题: 主流开源大模型基于Lite Server适配ModelLink PyTorch NPU训练指导(6.3.911)
LoRA微调训练 前提条件 已上传训练代码、训练权重文件和数据集到SFS Turbo中。 Step1 修改训练超参配置 以llama2-13b LORA微调为例,执行脚本0_pl_lora_13b.sh 。 修改模型训练脚本中的超参配置,必须修改的参数如表1所示。其他超参均有默认值
查看日志和性能 单击作业详情页面,则可查看训练过程中的详细信息。 图1 查看训练作业 在作业详情页的日志页签,查看最后一个节点的日志,其包含“elapsed time per iteration (ms)”数据,可换算为tokens/s/p的性能数据。 吞吐量(tokens/s/p
查看日志和性能 查看日志 训练过程中,训练日志会在第一个的Rank节点打印。 图1 打印训练日志 训练完成后,如果需要单独获取训练日志文件,日志存放在第一个的Rank节点中;日志存放路径为:对应表1表格中output_dir参数值路径下的trainer_log.jsonl文件。 查看性能
准备环境 本文档中的模型运行环境是ModelArts Lite的Cluster。请参考本文档要求准备资源环境。 资源规格要求 计算规格:不同模型训练推荐的NPU卡数请参见表2。 硬盘空间:至少200GB。 Ascend资源规格: Ascend: 1*ascend-snt9b表示Ascend
预训练任务 步骤一 上传训练权重文件和数据集 如果在准备代码和数据阶段已经上传权重文件和数据集到容器中,可以忽略此步骤。 如果未上传训练权重文件和数据集到容器中,具体参考上传代码和权重文件到工作环境和上传数据到指定目录章节完成。训练脚本中会自动执行训练前的权重转换操作和数据处理操作
LoRA微调训练 步骤一 上传训练权重文件和数据集 如果在准备代码和数据阶段已经上传权重文件和数据集到容器中,可以忽略此步骤。 如果未上传训练权重文件和数据集到容器中,具体参考上传代码和权重文件到工作环境和上传数据到指定目录章节完成。训练脚本中会自动执行训练前的权重转换操作和数据处理操作
准备Notebook(可选) 本步骤为可选操作。ModelArts Notebook云上云下,无缝协同,更多关于ModelArts Notebook的详细资料请查看开发环境介绍。 本案例中,如果用户需要自定义开发,可通过Notebook环境进行数据预处理、权重转换等操作。并且Notebook
训练脚本说明参考 训练参数配置说明【旧】 训练tokenizer文件说明 断点续训和故障快恢说明 父主题: 主流开源大模型基于Lite Server适配ModelLink PyTorch NPU训练指导(6.3.912)