检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
升作业的稳定性。详细可了解:无条件自动重启。 选择用户自己的专属资源池,以及规格与节点数。防止训练过程中出现内存溢出的情况,用户可参考表2进行配置。 图3 选择资源池规格 新增SFS Turbo挂载配置,并选择用户创建的SFS Turbo文件系统。 云上挂载路径:输入镜像容器中的工作路径
exec -it ${container_name} bash 步骤六:启动推理 本章节介绍SD3模型的推理过程。使用官方提供的已经训练好的模型进行推理,输入prompt生成指定像素的图片。 使用如下命令登录huggingface,并输入个人账号的token: huggingface-cli
Turbo服务。随后,通过Notebook将OBS中的数据上传至SFS Turbo,并对存储在SFS Turbo中的数据执行编辑操作。 训练 预训练/微调 介绍如何进行预训练,包括训练数据处理、超参配置、创建训练任务及性能查看。 父主题: 主流开源大模型基于Standard+OBS+SFS适配ModelLink
object 节点池的状态信息。 表3 NodePoolMetadata 参数 参数类型 描述 name String 节点池名称。用户可进行指定,若未指定将会使用默认名称。 表4 NodePoolSpec 参数 参数类型 描述 resources PoolResource object
object 节点池的状态信息。 表4 NodePoolMetadata 参数 参数类型 描述 name String 节点池名称。用户可进行指定,若未指定将会使用默认名称。 表5 NodePoolSpec 参数 参数类型 描述 resources PoolResource object
固定shape模型转换可以不填,动态模型转换必填。 --output_path 指定结果输出路径。 string 否 默认为当前目录下。 - --aoe 是否在转换时进行AOE优化。 bool 否 False AOE优化可以提升模型性能,但不是一定有提升,需要注意开启AOE,会导致模型转换耗时极大延长。 --accuracy
cd /home/ma-user/ws mkdir -p tokenizers/Llama2-70B 注意:多机情况下,只有在rank_0节点进行数据预处理,转换权重等工作,所以原始数据集和原始权重,包括保存结果路径,都应该在共享目录下。 父主题: 准备工作
准备数据 准备训练数据,可以用本案使用的数据集,也可以使用自己准备的数据集。 准备镜像 准备训练模型适用的容器镜像。 训练 预训练/微调 介绍如何进行预训练,包括训练数据处理、超参配置、创建训练任务及性能查看。 父主题: 主流开源大模型基于Lite Cluster适配ModelLink PyTorch
准备数据 准备训练数据,可以用本案使用的数据集,也可以使用自己准备的数据集。 准备镜像 准备训练模型适用的容器镜像。 训练 预训练/微调 介绍如何进行训练,包括训练数据处理、超参配置、训练任务、性能查看。 父主题: 主流开源大模型基于Lite Server适配ModelLink PyTorch
将权重文件上传到Server机器中。权重文件的格式要求为Huggingface格式。开源权重文件获取地址请参见支持的模型列表。 如果使用模型训练后的权重文件进行推理,模型训练及训练后的权重文件转换操作可以参考大模型训练相关文档。 权重要求放在磁盘的指定目录,并做目录大小检查,参考命令如下。 df -h
Face权重时存放目录绝对或相对路径。请根据实际规划修改。 template qwen 必须修改。用于指定模板。如果设置为"qwen",则使用Qwen模板进行训练,模板选择可参照表1中的template列 output_dir /home/ma-user/ws/Qwen2-72B/sft-4096
object 节点池的状态信息。 表4 NodePoolMetadata 参数 参数类型 描述 name String 节点池名称。用户可进行指定,若未指定将会使用默认名称。 表5 NodePoolSpec 参数 参数类型 描述 resources PoolResource object
presence_penalty表示会根据当前生成的文本中新出现的词语进行奖惩。取值范围[-2.0,2.0]。 frequency_penalty 否 0.0 Float frequency_penalty会根据当前生成的文本中各个词语的出现频率进行奖惩。取值范围[-2.0,2.0]。 length_penalty
ger/labeler/reviewer可见任务列表,但任务未分配完成,无法同时再启动任务。 1:运行中。labeler/reviewer进行标注和审核工作,owner验收,如新增、同步智能标注、导入未标注文件需再次分发新增文件。 2:验收中。owner发起验收任务,但并未完成验
参数配置完成后,单击“提交”,在“计费提醒”对话框,仔细阅读预估费用信息,然后单击“确定”,创建部署任务。 模型部署会基于资源占用时长进行计费。服务状态为运行中时会产生费用,最终实际费用以账单为准。在“我的服务”列表,当模型“状态”变成“运行中”时,表示模型部署完成。 查看部署服务信息
运行态配置 调用工作流对象的release方法将工作流发布到运行态,在ModelArts管理控制台,单击Workflow找到相应的工作流进行根路径配置,如下所示: 图2 根目录配置 父主题: 开发Workflow命令参考
镜像最后更新的时间,UTC毫秒。 visibility String 镜像可见度。枚举值: PRIVATE:私有镜像。 PUBLIC: 所有用户可以根据ImageId来进行只读使用。 workspace_id String 工作空间ID。未创建工作空间时默认值为“0”,存在创建并使用的工作空间,以实际取值为准。
/home/ma-user/work/envs/user_conda/ 查看现有的conda虚拟环境,此时新的虚拟环境已经能够正常显示,可以直接通过名称进行虚拟环境的切换。 # shell conda env list conda activate sfs-new-env # conda environments:
ger/labeler/reviewer可见任务列表,但任务未分配完成,无法同时再启动任务。 1:运行中。labeler/reviewer进行标注和审核工作,owner验收,如新增、同步智能标注、导入未标注文件需再次分发新增文件。 2:验收中。owner发起验收任务,但并未完成验
阅读并同意《华为云AI Gallery数字内容发布协议》和《华为云AI Gallery服务协议》。 单击“发布”。 发布使用容器镜像导入的资产时,后台会进行资产安全扫描,如果扫描发现资产有问题,则资产发布失败并邮件通知发布者。 编辑资产详情 资产发布成功后,发布者可以进入详情页修改该资产的标题、封面图、描述等,让资产更吸引人。