检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
t/server/api.py 修改def _exit_barrier(self)方法中的barrier_timeout参数,修改后如图1所示。 #修改前 barrier_timeout=self._exit_barrier_timeout #修改后 barrier_timeout=3000
microbatch_size],当前推荐配置为 tp=16, moe_ep=16。 NPU_MEMORY_FRACTION:表示显存比。 修改config.json文件中的服务化参数。config.json文件修改要求和样例参考附录:config.json文件。 cd /usr/local/Ascend/mindi
像地址获取。 docker pull {image_url} Step3 启动容器镜像 启动容器镜像前请先按照参数说明修改${}中的参数。可以根据实际需要增加修改参数。启动容器命令如下。 export work_dir="自定义挂载的工作目录" #容器内挂载的目录,例如/home/ma-user/ws
练日志。 # 任意目录创建 mkdir test-benchmark 修改yaml文件参数中model_name_or_path、dataset_dir和dataset或eval_dataset参数配置,修改代码目录下accuracy_cfgs.yaml或performance_cfgs
-xxx.zip 说明: 软件包名称中的xxx表示时间戳。 包含了本教程中使用到的模型训练代码。代码包具体说明请参见模型软件包结构说明。 获取路径:Support-E 请联系您所在企业的华为方技术支持下载获取。 模型软件包结构说明 AscendCloud-3rdLLM代码包结构介
镜像在SWR上显示只有13G,安装少量的包,然后镜像保存过程会提示超过35G大小保存失败,为什么? 如何保证自定义镜像能不因为超过35G而保存失败? 如何减小本地或ECS构建镜像的目的镜像的大小? 镜像过大,卸载原来的包重新打包镜像,最终镜像会变小吗? 在ModelArts镜像管理注册镜像报错ModelArts
练日志。 # 任意目录创建 mkdir test-benchmark 修改yaml文件参数中model_name_or_path、dataset_dir和dataset或eval_dataset参数配置,修改代码目录下accuracy_cfgs.yaml或performance_cfgs
如下图所示,支持对多节点批量进行删除、退订、重启、重置、开启/关闭高可用冗余操作,具体介绍请参见修复Standard专属资源池故障节点。还支持对节点批量添加、编辑、删除资源标签操作,“包年/包月”的节点支持批量续费、批量开通/修改自动续费功能。 图2 节点批量操作 如下图所示,在单个节点的操作列,支
获得其对应的Manifest文件。在获取此Manifest文件后,可将此数据集导入其他区域或者其他账号的ModelArts中,导入后的数据已携带标注信息,无需重复标注,提升开发效率。 Manifest文件描述的是原始文件和标注信息,可用于标注、训练、推理场景。Manifest文件
GET /v1/{project_id}/workspaces/{ws_id} modelarts:workspace:get - √ √ 修改工作空间 PUT /v1/{project_id}/workspaces/{ws_id} modelarts:workspace:update
ecified max_model_len is greater than the drived max_model_len。 解决方法:修改config.json文件中的"seq_length"的值,"seq_length"需要大于等于 --max-model-len的值。config
像地址获取。 docker pull {image_url} Step3 启动容器镜像 启动容器镜像前请先按照参数说明修改${}中的参数。可以根据实际需要增加修改参数。启动容器命令如下。 export work_dir="自定义挂载的工作目录" #容器内挂载的目录,例如/home/ma-user/ws
ata”改为“true”,修改后内容如下: parser.add_argument('--custom_data', default='true') 然后直接运行代码示例“main.py”即可,创建训练作业的参数与上图相同。 2、为什么DDP可以不输入主节点ip? “parser
/AscendSpeed/tokenizers/llama2-13b tokenizer的存放路径,与HF权重存放在一个文件夹下。请根据实际规划修改。 PROCESSED_DATA_PREFIX /home/ma-user/ws/llm_train/AscendSpeed/pro
Found”,请下载别的版本VS Code重新在本地安装,目前推荐: Vscode-1.86.2。 如果实例的架构是x86_64的,通过下面的链接,手动修改Commit码(Commit码替换时去掉尖括号),使用浏览器下载vscode-server-linux-x64.tar.gz文件。 https://update
/home/ma-user/work/model/llama-2-13b-chat-hf tokenizer的存放路径,与HF权重存放在一个文件夹下。请根据实际规划修改。 PROCESSED_DATA_PREFIX /home/ma-user/work/llm_train/processed_for
管理我的服务 扩缩容模型服务实例数 修改模型服务QPS 升级模型服务
创建图像分类数据集并进行标注任务 创建并完成图像分类的智能标注任务 开发环境的应用示例 以PyTorch框架创建训练作业(新版训练) 创建和修改工作空间 管理ModelArts服务的委托授权
Key):与访问密钥ID结合使用的密钥,对请求进行加密签名,可标识发送方,并防止请求被修改。 使用AK/SK认证时,您可以基于签名算法使用AK/SK对请求进行签名,也可以使用专门的签名SDK对请求进行签名。详细的签名方法和SDK使用方法请参见API签名指南。 签名SDK只提供签名功能,与服务提供的SDK不同,使用时请注意。
管理批量推理作业 查看批量服务详情 查看批量服务的事件 管理批量服务生命周期 修改批量服务配置 父主题: 使用ModelArts Standard部署模型并推理预测