检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
管理团队和团队成员 修改成员信息 团队中的成员,当其信息发生变化时,可以编辑其基本情况。 在“团队详情”区域,选择需修改的成员。 在成员所在行的“操作”列,单击“修改”。在弹出的对话框中,修改其“描述”或“角色”。 成员的“邮箱”无法修改,如果需要修改邮箱地址,建议先删除此成员,然后再基于新的邮箱地址添加新成员。
点管理、扩缩容、驱动升级、带本地盘机型的本地盘数据丢失等。 高 不可恢复。 修改网络安全组 可能影响ModelArts侧基本功能,包括但不限于节点管理、扩缩容、驱动升级等。 中 改回原有内容。 网络 修改/删除集群关联网段。 影响ModelArts侧基本功能,包括但不限于节点管理、扩缩容、驱动升级等。
zer文件,需要修改代码。修改文件chatglm4-9b/tokenization_chatglm.py 。 文件最后几处代码中需要修改,具体位置可根据上下文代码信息进行查找,修改后如图所示。 图3 修改ChatGLMv4-9B tokenizer文件 图4 修改ChatGLMv4-9B
zer文件,需要修改代码。修改文件chatglm4-9b/tokenization_chatglm.py 。 文件最后几处代码中需要修改,具体位置可根据上下文代码信息进行查找,修改后如图所示。 图3 修改ChatGLMv4-9B tokenizer文件 图4 修改ChatGLMv4-9B
sh安装命令时,需要确认机器是否已连通网络。若无法连通网络,可使用离线安装的方式,具体参考离线训练安装包准备说明。 若要对ChatCLMv3、GLMv4系列模型进行训练时,需要修改 install.sh 脚本中的 transformers 的版本。由默认 transformers==4.45.0 修改为:transformers==4
Snt9B。 请参考Lite Server资源开通,购买Lite Server资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.2
user_converted_ckpt_path=xxx 前提条件 已上传训练代码、训练权重文件和数据集到SFS Turbo中。 步骤一 修改训练Yaml配置文件 修改或添加代码目录下modellink_performance_cfgs.yaml文件参数内容,参数详解可查看表1。 样例yaml配置文件结构分为:
如果为风格微调,请准备至少50条风格相似的视频和标签,以利于拟合。 修改CogVideo/sat/configs/cogvideox_*.yaml文件 如果希望使用 Lora 微调,需要修改cogvideox_<模型参数>_lora 文件,修改参考如下: *** conditioner_config:
专属资源池关联SFS Turbo时显示异常,关联失败。 图1 关联异常 图2 报错提示 问题现象2 网络操作解除关联SFS Turbo后状态仍显示已关联且无报错信息,而解除关联按钮置灰不可操作。同时该网络的解除关联SFS Turbo按钮置灰不可操作。 图3 关联SFS Turbo状态 原因分析
路由加速的原理是改变rank编号,所以代码中对rank的使用要统一。 将训练作业完成如下修改后,启动训练作业即可实现网络加速。 将训练启动脚本中的“NODE_RANK="$VC_TASK_INDEX"”修改为“NODE_RANK="$RANK_AFTER_ACC"”。 将训练启动脚本中的
安装命令时,需要确认机器是否已连通网络。若无法连通网络,可使用离线安装的方式,具体参考离线训练安装包准备说明。 若要对ChatCLMv3、GLMv4系列模型进行训练时,需要修改 install.sh 脚本中的 transformers 的版本。由默认 transformers==4.45.0 修改为:transformers==4
Standard 集群版本:v1.23|v1.25|v1.28(推荐) 集群规模:50|200|1000|2000 集群网络模式:容器隧道网络|VPC 分布式训练时仅支持容器隧道网络 集群转发模式:iptables|ipvs gpu-beta gpu-driver rdma-sriov-dev-plugin
说明 查询事件列表 查询事件列表。 表17 网络管理 API 说明 创建网络资源 创建网络资源。 查询网络资源列表 查询网络资源列表。 查询网络资源 查询指定网络资源的详情信息。 删除网络资源 删除指定网络资源。 更新网络资源 更新指定网络资源。 表18 资源指标管理 API 说明
离线训练安装包准备说明 在华为公有云平台,申请的资源一般要求连通网络。因此用户在准备环境时可以运行 scripts/install.sh 直接下载安装资源,或通过 Dockerfile 下载安装资源并构建一个新的镜像。 若用户的机器或资源池无法连通网络,并无法git clone下载代码、安装pyt
离线训练安装包准备说明 申请的模型软件包一般依赖连通网络的环境。若用户的机器或资源池无法连通网络,并无法git clone下载代码、安装python依赖包的情况下,用户则需要找到已联网的机器(本章节以Linux系统机器为例)提前下载资源,以实现离线安装。用户可遵循以下步骤操作。 步骤一:资源下载
Lite的DevServer环境中,使用NPU卡对MiniCPM-V2.0进行LoRA微调及推理。本文档中提供的训练脚本,是基于原生MiniCPM-V的代码基础适配修改,可以用于NPU芯片训练。 MiniCPM系列的最新多模态版本MiniCPM-V2.0。该模型基于MiniCPM 2.4B和SigLip-400M构建,共拥有2
有下载权限,请联系您所在企业的华为方技术支持下载获取。 修改代码 将AscendSpeed代码包AscendCloud-LLM-xxx.zip在本地解压缩后。在上传代码前,需要对解压后的训练脚本代码进行修改。具体文件为:修改llm_train/AscendSpeed/scripts/dev_pipeline
netes基础知识、网络知识、存储和镜像知识。 配置流程 图1 Lite Cluster资源配置流程图 表1 Cluster资源配置流程 配置顺序 配置任务 场景说明 1 配置Lite Cluster网络 购买资源池后,需要弹性公网IP并进行网络配置,配置网络后可通过公网访问集群资源。
Lite的Server环境中,使用NPU卡对MiniCPM-V2.6进行LoRA微调及SFT微调。本文档中提供的训练脚本,是基于原生MiniCPM-V的代码基础适配修改,可以用于NPU芯片训练。 方案概览 本方案介绍了在ModelArts的Server上使用昇腾计算资源开展MiniCPM-V 2.6 Lo
两种: Terminal日志信息的概览建议。 包含Detail信息及修改示例的HTML信息。 按照建议信息做如下修改: 亲和优化器使能,在train.py中修改优化器为apex混合精度模式下的DDP优化方式(修改点:注释第161和167行,增加第168~170行)。 二进制调优使能,减少算子编译耗时,在train