检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
torch_2_2_ascend:20241106 构建镜像前需保证Dockerfile文件内容中镜像名与本文档镜像保持一致,如不同则需修改为一致。 # 修改以下内容: FROM swr.cn-southwest-2.myhuaweicloud.com/atelier/xxx 父主题:
修改“requirements.txt”中的onnx版本,改为“onnx>=1.12.0”。 将“yolox/data/datasets/coco.py”第59行的“data_dir = os.path.join(get_yolox_datadir(), "COCO")”改为“data_dir = '/home/ma-user/coco'”。
使用自定义引擎创建模型,用户的SWR镜像、OBS模型包和文件大小需要满足以下规范: SWR镜像规范: 镜像必须内置一个用户名为“ma-user”,组名为“ma-group”的普通用户,且必须确保该用户的uid=1000、gid=100。内置用户的dockerfile指令如下: groupadd -g 100 ma-group
当使用此方式时,输入数据目录下的文件只能以.csv为后缀,且需配置mapping_rule参数,以表达推理请求体中各个参数对应到csv的索引。 cluster_id 否 String 可选,部署服务时使用的资源池ID。对于rel-time和batch服务类型,为旧版专属资源池I
py”复制到该目录下,名称改为“pipeline_onnx_stable_diffusion_img2img_mslite.py”,以便与源文件名称区分。但是这样也会导致无法正确找到源码中相对路径下的依赖,需要将对于diffusers包内的相对路径修改为绝对路径的形式。 图1 代码依赖修改前与修改后
系统自动创建委托名称,用户可以手动修改。 “新增委托 > 权限配置 > 普通用户” 普通用户包括用户使用ModelArts完成AI开发的所有必要功能权限,如数据的访问、训练任务的创建和管理等。一般用户选择此项即可。 可以单击“查看权限列表”,查看普通用户权限。 “新增委托 > 权限配置 > 自定义”
sh,脚本里面有某些环境变量在新版本下发的作业中并不存在这些环境变量导致。 可能原因是使用Python file接口并发读写同一文件。 处理方法 对挂载盘的数据加权限,可以改为与训练容器内相同的用户组(1000),假如/nas盘是挂载路径,执行如下代码。 chown -R 1000:1000 /nas 或者 chmod
ma/customize_from_ubuntu_18.04_to_modelarts”下。 图3 查询Dockerfile的路径 Dockerfile命令修改为相对路径,举例如下: COPY ./mindspore-2.1.0-cp39-cp39-linux_aarch64.whl /tmp/mindspore-2
根据样本名称搜索(含后缀名)。 sample_time 否 String 样本加入到数据集时,会根据样本在OBS上的最后修改时间(精确到天)建立索引,此处可以根据此时间进行搜索。可选值如下: month:搜索往前30天至今天内添加的样本 day:搜索昨天(往前1天)至今天内添加的样本
5:验收结果同步中。验收任务改为异步,新增验收结果同步中的状态,此时不允许发起新的验收任务,也不允许继续当前验收,任务名称的地方提示用户同步中。 6:已创建。owner创建完任务,未启动,仅owner/manager可见任务列表。 7:验收采样中。发起验收改为异步,新增验收采样中的状
将训练启动脚本中的“NODE_RANK="$VC_TASK_INDEX"”修改为“NODE_RANK="$RANK_AFTER_ACC"”。 将训练启动脚本中的“MASTER_ADDR="${VC_WORKER_HOSTS%%,*}"”修改为“MASTER_ADDR="${MA_VJ_NAME}-$
进行训练时,需要修改 install.sh 中的 transformers 的版本。 由默认 transformers==4.45.0 修改为:transformers==4.44.2 创建训练作业后,会在节点机器中使用基础镜像创建docker容器,并在容器内进行分布式训练。而install
进行训练时,需要修改 install.sh 中的 transformers 的版本。 由默认 transformers==4.45.0 修改为:transformers==4.44.2 创建训练作业后,会在节点机器中使用基础镜像创建docker容器,并在容器内进行分布式训练。而install
需要去掉模型文件目录下存在dockerfile文件。 图2 构建日志:dockerfile文件目录有问题 pip软件包版本不匹配,需要修改为日志中打印的存在的版本。 图3 pip版本不匹配 构建日志中出现报错:“exec /usr/bin/sh: exec format error”。
json文件,里面是提取的per-tensor的scale值。内容示例如下: 注意: 抽取完成后,可能提取不到model_type信息,需要手动将model_type修改为指定模型,如"llama"。 当前社区vllm只支持float8的kv_cache量化,抽取脚本中dtype类型是"float8_e4m3
况,导致空间不足。 请排查是否使用的是GPU资源。如果使用的是CPU规格的资源,“/cache”与代码目录共用10G,会造成内存不足,请更改为使用GPU资源。 请在代码中添加环境变量来解决。 import os os.system('export TMPDIR=/cache') 父主题:
进行训练时,需要修改 install.sh 中的 transformers 的版本。 由默认 transformers==4.45.0 修改为:transformers==4.44.2 以创建llama2-13b预训练作业为例,执行脚本0_pl_pretrain_13b.sh时,命令如下:
严格授权模式 严格授权模式是指在IAM中创建的子用户必须由账号管理员显式在IAM中授权,才能访问ModelArts服务,管理员用户可以通过授权策略为普通用户精确添加所需使用的ModelArts功能的权限。 相对的,在非严格授权模式下,子用户不需要显式授权就可以使用ModelArts,管理员
进行训练时,需要修改 install.sh 中的 transformers 的版本。 由默认 transformers==4.45.0 修改为:transformers==4.44.2 以创建llama2-13b预训练作业为例,执行脚本0_pl_pretrain_13b.sh时,命令如下:
json文件,里面是提取的per-tensor的scale值。内容示例如下: 注意: 抽取完成后,可能提取不到model_type信息,需要手动将model_type修改为指定模型,如"llama"。 当前社区vllm只支持float8的kv_cache量化,抽取脚本中dtype类型是"float8_e4m3