检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查看日志和性能 查看日志 训练过程中,训练日志会在最后的Rank节点打印。 图1 打印训练日志 训练完成后,如果需要单独获取训练日志文件,可以在${SAVE_PATH}/logs路径下获取。日志存放路径为:/home/ma-user/ws/saved_dir_for_ma_output/llama2-70b/logs
查看日志和性能 查看日志 训练过程中,训练日志会在最后的Rank节点打印。 图1 打印训练日志 训练完成后,如果需要单独获取训练日志文件,可以在${SAVE_PATH}/logs路径下获取。日志存放路径为:/home/ma-user/ws/saved_dir_for_ma_output/llama2-70b/logs
tensorflow包含所有的接口,对TensorFlow做了优化,里面的实际接口还是TensorFlow的原生接口。 当非MoXing代码中没有Adam名称范围时,需要修改非MoXing代码,在其中增加如下内容: with tf.variable_scope("Adam"): 在增加代码时不建议使用自定义
性能。 约束限制 暂不支持Multi-Lora和投机推理场景。 multi-step参数设置 启动推理服务时,使用multi-step调度需要配置的参数如下表所示。 表1 开启multi-step调度参数配置 服务启动方式 配置项 取值类型 配置说明 offline num_scheduler_steps
查看日志和性能 查看日志 训练过程中,训练日志会在最后的Rank节点打印。 图1 打印训练日志 训练完成后,如果需要单独获取训练日志文件,可以在${SAVE_PATH}/logs路径下获取。日志存放路径为:/home/ma-user/ws/saved_dir_for_ma_output/llama2-70b/logs
查看日志和性能 查看日志 训练过程中,训练日志会在最后的Rank节点打印。 图1 打印训练日志 训练完成后,如果需要单独获取训练日志文件,可以在${SAVE_PATH}/logs路径下获取。日志存放路径为:/home/ma-user/ws/saved_dir_for_ma_output/llama2-70b/logs
本方案介绍了在ModelArts的DevServer上使用昇腾计算资源开展CogVideoX1.5 5b全量微调的详细过程。完成本方案的部署,需要先联系您所在企业的华为方技术支持购买DevServer资源。 本方案目前仅适用于企业客户。 资源规格要求 推荐使用“西南-贵阳一”Regi
必须修改。指定的输入数据集中数据的总数量。更换数据集时,需要修改。 EPOCH 5 表示训练轮次,根据实际需要修改。一个Epoch是将所有训练样本训练一次的过程。 TRAIN_ITERS SN / GBS * EPOCH 非必填。表示训练step迭代次数,根据实际需要修改。 SEED 1234 随机种子数。每次数据采样时,保持一致。
必须修改。指定的输入数据集中数据的总数量。更换数据集时,需要修改。 EPOCH 5 表示训练轮次,根据实际需要修改。一个Epoch是将所有训练样本训练一次的过程。 TRAIN_ITERS SN / GBS * EPOCH 非必填。表示训练step迭代次数,根据实际需要修改。 SEED 1234 随机种子数。每次数据采样时,保持一致。
必须修改。指定的输入数据集中数据的总数量。更换数据集时,需要修改。 EPOCH 5 表示训练轮次,根据实际需要修改。一个Epoch是将所有训练样本训练一次的过程。 TRAIN_ITERS SN / GBS * EPOCH 非必填。表示训练step迭代次数,根据实际需要修改。 SEED 1234 随机种子数。每次数据采样时,保持一致。
eep-learning,请替换为a.登录容器镜像服务控制台,选择区域。中实际创建的组织名称,以下所有命令中的deep-learning都需要替换。 sudo docker tag tf-1.13.2:latest swr.实际域名.com/deep-learning/tf-1.13
Turbo资源做关联操作,关联完成后,表示SFS Turbo与网络已进行打通,可在训练和开发环境等功能时使用此SFS Turbo。 关联与解除关联操作需要用户委托授权ModelArts云服务操作SFS Turbo的部分权限。 涉及配置的自定义权限策略项如下: sfsturbo:shares:
自动学习生成的模型,存储在哪里?支持哪些其他操作? 在ModelArts中图像分类和物体检测具体是什么? 自动学习训练后的模型是否可以下载? 自动学习项目中,如何进行增量训练? 更多 训练作业 ModelArts中的作业为什么一直处于等待中? ModelArts训练好后的模型如何获取? 如何查看训练作业的资源占用情况?
200 表3 响应Body参数 参数 参数类型 描述 grants Array of grants objects 授权用户列表。默认为空。需要与“auth_type”参数配合使用,且仅当授权类型为“INTERNAL”时才会生效。 owner String 创建者名称。 auth_type
请参考OBS权限管理,为当前IAM用户配置“作用范围”为“全局级服务”的“Tenant Administrator”策略,即拥有OBS服务所有操作权限。 如果需要限制此IAM用户操作,仅为此用户配置OBS相关的最小化权限项,具体操作请参见创建ModelArts自定义策略。 检查OBS桶是否具备权限。
其中workspace_id可前往ModelArts的工作空间服务中进行查看 上述代码示例在云上Notebook环境中可直接调试运行。 如果需要在本地IDE中使用,则需要补充相关的session鉴权内容,在本地IDE中运行,代码示例修改如下: from modelarts import workflow
必须修改。指定的输入数据集中数据的总数量。更换数据集时,需要修改。 EPOCH 5 表示训练轮次,根据实际需要修改。一个Epoch是将所有训练样本训练一次的过程。 TRAIN_ITERS SN / GBS * EPOCH 非必填。表示训练step迭代次数,根据实际需要修改。 SEED 1234 随机种子数。每次数据采样时,保持一致。
必须修改。指定的输入数据集中数据的总数量。更换数据集时,需要修改。 EPOCH 5 表示训练轮次,根据实际需要修改。一个Epoch是将所有训练样本训练一次的过程。 TRAIN_ITERS SN / GBS * EPOCH 非必填。表示训练step迭代次数,根据实际需要修改。 SEED 1234 随机种子数。每次数据采样时,保持一致。
进入“任务历史”界面,可查看相应的导入历史。 图9 查看历史数据 删除数据 通过数据删除操作,可将需要丢弃的数据快速删除。 在“全部”、“未标注”或“已标注”页面中,依次选中需要删除的内容,或者选择“选择当前页”选中该页面所有内容,然后单击“删除”。在弹出的对话框中,根据实际情
单击目标资产,进入资产详情页面。 在资产详情页面,单击按钮收藏资产。 收藏成功后,在各个模块的“我的收藏”页签可以快速查看收藏的资产。 图2 查看收藏的资产 (可选)如果需要取消收藏,再次单击按钮即可。 父主题: 订阅使用