检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在导入模型时,提示模型或镜像大小超过限制。 原因分析 如果使用的是OBS导入或者训练导入,则是基础镜像、模型文件、代码、数据文件和下载安装软件包的大小总和超过了限制。 如果使用的是自定义镜像导入,则是解压后镜像和镜像下载文件的大小总和超过了限制。 处理方法 精简模型或镜像后,重新导入。 父主题: 模型管理
mark,支持训练、性能对比、下游任务评测、loss和下游任务对比能力。对比结果以excel文件呈现。方便用户验证发布模型的质量。所有配置都通过yaml文件设置,用户查看默认yaml文件即可知道最优性能的配置。 目前仅支持SFT指令监督微调训练阶段。 代码目录 benchmark
API文档以及常用的Python编码,您可以参考本章节使用MoXing Framework的一些进阶用法。 读取完毕后将文件关闭 当读取OBS文件时,实际调用的是HTTP连接读取网络流,注意要记得在读取完毕后将文件关闭。为了防止忘记文件关闭操作,推荐使用with语句,在with语句退出时会自动调用mox.file.File对象的close()方法:
${work_dir}:${container_work_dir} 代表需要在容器中挂载宿主机的目录。宿主机和容器使用不同的文件系统。work_dir为宿主机中工作目录,目录下存放着训练所需代码、数据等文件。container_work_dir为要挂载到的容器中的目录。为方便两个地址可以相同。 容器不能挂
名称 获取路径 插件代码包 AscendCloud-6.3.910软件包中的AscendCloud-AIGC-6.3.910-xxx.zip 文件名中的xxx表示具体的时间戳,以包名发布的实际时间为准。 获取路径:Support-E,在此路径中查找下载ModelArts 6.3.910
在部署上线前,您需要基于训练后的模型编写配置文件和推理代码。 如果您的模型存储路径下,缺少配置文件“confi.json”,或者缺少推理代码“customize_service.py”时,将出现错误,错误信息如下图所示。 解决方案: 请参考模型包规范写配置文件和推理代码,并存储至需部署的模型所在OBS目录下。
名称 获取路径 插件代码包 AscendCloud-6.3.910软件包中的AscendCloud-AIGC-6.3.910-xxx.zip 文件名中的xxx表示具体的时间戳,以包名发布的实际时间为准。 获取路径:Support-E,在此路径中查找下载ModelArts 6.3.910
象OBS存储”。 文件存储:如果训练代码存放在文件存储中,则选择“文件存储”。 代码目录 仅当“代码来源”选择“对象OBS存储”时才显示该参数。 必填,选择训练代码文件所在的OBS目录。 需要提前将代码上传至OBS桶中,目录内文件总大小要小于或等于5GB,文件数要小于或等于1000个,文件深度要小于或等于32。
-r OBS支持多种文件上传方式,当文件少于100个时,可以在OBS Console中上传,当文件大于100个时,推荐使用工具,推荐OBS Browser+(win)、obsutil(linux)。上述例子为obsutil使用方法。 准备算法 main.py文件内容如下,并将其上传至OBS桶的demo文件夹中:
用户无法在包周期的资源池中扩容按需的节点(包括AutoScaler场景)。 支持SFS产品权限划分 支持SFS权限划分特性,可以实现训练场景中,挂载的SFS的文件夹能够权限控制,避免出现所有人都可以挂载使用,导致某用户误删所有数据的情况。 支持选择资源池的驱动版本 通过选择资源池的驱动版本,解决资源
手工把需要的文件复制进去。建议数据、代码和中间数据都放到"/cache"目录,防止正式运行时磁盘占满(请见ModelArts环境挂载目录说明)。建议linux服务器申请的时候,有足够大的内存(8G以上)以及足够大的硬盘(100G以上)。 docker和linux的文件交互命令如下:
确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。 storage_type 否 String 挂载类型sfs_turbo极速文件系统挂载。 source_address 否 String 挂载源路径,挂载为极速文件时为sfs turbo id。
left on device”。 原因分析 ModelArts部署使用的是容器化部署,容器运行时有空间大小限制,当用户的模型文件或者其他自定义文件,系统文件超过Docker size大小时,会提示镜像内空间不足。 处理方法 公共资源池容器Docker size的大小最大支持50G,专属资源池Docker
对于开放代码的算法,您也可以在详情页面预览或者下载对应代码。 在“代码”页签,单击右侧的“下载”将完整代码下载到本地,您也可以单击下方列表中的文件名称进行预览。 目前如下后缀结尾的文件类型支持代码预览:txt、py、h、xml、html、c、properties、yml、cmake、sh、css、js、
volumes属性列表 参数 是否必选 参数类型 说明 nfs 否 Object 共享文件系统类型的存储卷。仅支持运行于已联通共享文件系统网络的资源池的训练作业。具体说明请参见表6。 host_path 否 Object 主机文件系统类型的存储卷。仅支持运行于专属资源池中的训练作业。具体说明请参见表7。
确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。 storage_type 否 String 挂载类型sfs_turbo极速文件系统挂载。 source_address 否 String 挂载源路径,挂载为极速文件时为sfs turbo id。
订阅免费Workflow 登录“AI Gallery”。 选择“资产集市 > MLOps > Workflow”,进入Workflow页面,该页面展示了所有共享的Workflow。 搜索业务所需的免费Workflow,请参见查找和收藏资产。 单击目标Workflow进入详情页面。 在详情页面您可以
法通过。 创建完成后,跳转至模型详情页。 上传模型文件 在模型详情页,选择“模型文件”页签。 单击“添加文件”,进入上传文件页面,选择本地的数据文件单击“点击上传”或拖动文件,单击“确认上传”启动上传。 上传单个超过5GB的文件时,请使用Gallery CLI工具。CLI工具的获取和使用请参见Gallery
自定义脚本代码示例 从OBS中导入模型文件创建模型时,模型文件包需符合ModelArts的模型包规范,推理代码和配置文件也需遵循ModelArts的要求。 本章节提供针对常用AI引擎的自定义脚本代码示例(包含推理代码示例)。模型推理代码编写的通用方法及说明请见模型推理代码编写说明。
--benchmark-csv:结果保存文件,如benchmark_parallel.csv。 脚本运行完成后,测试结果保存在benchmark_parallel.csv中,示例如下图所示。 图1 静态benchmark测试结果(示意图) 动态benchmark 本章节介绍如何进行动态benchmark验证。