华为云用户手册

  • 解释说明 设置服务的运行日志输出存放到 云日志 服务(LTS)。默认关闭,即服务的运行日志仅存放在ModelArts日志系统。开启此功能后,LTS自动分配日志组和日志流,将服务的运行日志输出存放到LTS日志组的日志流中,默认可缓存7天内的运行日志。服务详情页的“日志”展示LTS中存放的日志。 “运行日志输出”开启后,不支持关闭。 LTS服务提供的日志查询和日志存储功能涉及计费,详细请参见了解LTS的计费规则。
  • 如何确认服务日志存放在哪个日志组和日志流中? 在服务详情页面,当“运行日志输出”开关开启,右侧显示“查看配置”,单击“查看配置”,即可在运行日志弹窗中查看当前服务运行日志存储的日志组和日志流名称。 当“运行日志输出”右侧显示“日志组和日志流正在创建中,请稍后查看”时,等待日志组和日志流创建完成后,单击“查看配置”查看日志组和日志流名称。 当“运行日志输出”右侧显示“服务重启时生效”时,需重启服务,等待“运行日志输出”配置完成后,单击“查看配置”查看日志组和日志流名称。 当“运行日志输出”右侧显示“日志配置异常,请尝试重启服务。”时,需重启服务,等待日志配置正常后,单击“查看配置”查看日志组和日志流名称。
  • 计费示例 假设用户部署了一个模型服务,模型服务运行了2小时停止,其中套餐包余量还有1小时。选择的是规格单价为xx元的公共资源池,实例数为1个。按照计算资源费用结算,那么部署模型服务的费用计算如下: 计算资源费用 = xx 元/小时 * (模型服务运行时长2小时 - 套餐包余量1小时) = xx 元 综上,部署模型服务的费用 = 计算资源费用(xx 元) 使用公共资源池时,仅部署模型服务状态为运行及告警时才收费。使用专属资源池时,则部署模型服务不进行单独计费,由专属资源池进行收费。
  • 计费项 在MaaS进行模型服务部署时,会产生计算资源和存储资源的累计值计费。计算资源为运行模型服务的费用。存储资源包括数据存储到OBS的计费。具体内容如表1所示。 表1 计费项 计费项 计费项说明 适用的计费模式 计费公式 计算资源 公共资源池 使用计算资源的用量。 具体费用可参见ModelArts价格详情。 按需计费 规格单价 * 实例数 * 使用时长 优先抵扣套餐包时长 专属资源池 专属资源池的费用已在购买时支付,部署服务不再收费。 专属资源池的费用请参考专属资源池计费项。 - - 事件通知(不开启则不计费) 订阅消息使用 消息通知 服务,在事件列表中选择特定事件,在事件发生时发送消息通知。 如果想使用消息通知,需要在创建训练作业时开启“事件通知”功能。 具体计费可见消息通知服务价格详情。 按实际用量付费 发送短信通知费用构成:短信通知条数 发送电子邮件费用构成:电子邮件+外网下行流量 发送HTTP(S)费用构成:HTTP(S)+外网下行流量
  • 解释说明 镜像的启动命令。在代码目录下载完成后,启动命令会被自动执行。 如果训练启动脚本用的是py文件,例如train.py,启动命令可以写为“python ${MA_JOB_DIR}/demo-code/train.py”。 如果训练启动脚本用的是sh文件,例如main.sh,启动命令可以写为“bash ${MA_JOB_DIR}/demo-code/main.sh”。 启动命令可支持使用";"和"&&"拼接多条命令。命令中的demo-code为OBS存放代码路径的最后一级目录,用户可以根据实际修改。
  • 解释说明 “密钥对”方式创建的裸金属服务器安全性更高,建议选择“密钥对”方式。如果您习惯使用“密码”方式,请增强密码的复杂度,保证密码符合要求,防止被恶意攻击。 密钥对 指使用密钥对作为登录裸金属服务器的鉴权方式。您可以选择使用已有的密钥对,或者单击“新建密钥对”创建新的密钥。 如果选择使用已有的密钥,请确保您已在本地获取该文件,否则,将影响您正常登录裸金属服务器。 密码 指使用设置初始密码方式作为裸金属服务器的鉴权方式,此时,您可以通过用户名密码方式登录裸金属服务器。 Linux操作系统时为root用户的初始密码,Windows操作系统时为Administrator用户的初始密码。密码复杂度需满足以下要求: 长度为8至26个。 至少包含大写字母、小写字母、数字及特殊符号(!@$%^-_=+[{}]:,./?)中的3种 不能与用户名或倒序的用户名相同。 不能包含root或administrator及其逆序。
  • 计费项 在MaaS进行模型压缩时,会产生计算资源和存储资源的累计值计费。计算资源为压缩任务运行的费用。存储资源包括数据存储到OBS的费用。具体内容如表1所示。 表1 计费项 计费项 计费项说明 适用的计费模式 计费公式 计算资源 公共资源池 使用计算资源的用量。 具体费用请参见ModelArts价格详情。 按需计费 规格单价 * 使用时长 优先抵扣套餐包时长 专属资源池 专属资源池的费用已在购买时支付,模型训练时不再收费。 专属资源池的费用请参考专属资源池计费项。 - - 存储资源 对象存储OBS 用于存储模型训练的输入和输出数据。 具体费用请参见对象存储价格详情。 注意: 存储到OBS中的数据需在OBS控制台进行手动删除。若未删除,则会按照OBS的计费规则进行持续计费。 按需计费 包年/包月 创建桶不收取费用,按实际使用的存储容量和时长收费 事件通知(不开启则不计费) 订阅消息使用消息通知服务,在事件列表中选择特定事件,在事件发生时发送消息通知。 如果想使用消息通知,需要在创建训练作业时开启“事件通知”功能。 具体计费请参见消息通知服务价格详情。 按实际用量付费 发送短信通知费用构成:短信通知条数 发送电子邮件费用构成:电子邮件+外网下行流量 发送HTTP(S)费用构成:HTTP(S)+外网下行流量
  • 计费示例 假设用户创建了一个模型压缩任务,任务运行了2小时停止,其中套餐包余量还有1小时。选择的是规格单价为xx元的公共资源池。按照计算资源费用、存储费用结算,那么运行这个任务的费用计算如下: 计算资源费用 = xx 元/小时 * (压缩时长2小时 - 套餐包余量1小时) = xx 元 存储费用:数据通过 对象存储服务 (OBS)上传或导出,存储计费按照OBS的计费规则。 综上,压缩任务的运行费用 = 计算资源费用(xx 元) + 存储费用 使用公共资源池时,仅压缩任务状态为运行时才收费。使用专属资源池时,则压缩任务不进行单独计费,由专属资源池进行收费。 不同模型存在差异,模型压缩的费用存在波动的可能性,最终总费用以实际发生为准。
  • 订阅消息 Workflow使用了消息通知服务,支持用户在事件列表中选择需要监控的状态,并在事件发生时发送消息通知。如需订阅通知消息,则打开“订阅消息”开关。 打开开关后,需要先指定 SMN 主题名,如未创建主题名,需前往消息通知服务创建主题。 支持对Workflow中单个节点、多个节点以及工作流的相关事件进行订阅。订阅列表中,一行代表一个节点或者整条工作流的订阅。如需对多个节点的状态变化获取消息,则需增加多行订阅消息。 对每一个订阅对象,可以选择多个订阅事件,包含:“等待输入”、“运行成功”、“异常”三种事件。当出现相应的事件后,用户均可以受到相应的消息通知。 父主题: Workflow
  • 解释说明 训练作业支持使用用户自定义的算法或者AI Gallery订阅的算法创建训练作业。 自定义算法 用户可以自定义算法创建训练作业。需根据实际算法代码情况设置“镜像”、“代码目录”和“启动文件”。选择的AI引擎和编写算法代码时选择的框架必须一致。例如编写算法代码使用的是TensorFlow,则在创建算法时也要选择TensorFlow。 我的算法 用户可以使用算法管理中已导入的自定义算法创建训练作业。 订阅模型 除支持用户自己开发的模型外,ModelArts还提供了从AI Gallery订阅算法,您可以不关注模型开发,直接使用AI Gallery的算法,通过算法参数的调整,得到一个满意的模型。
  • 解释说明 公共资源池 公共资源池提供公共的大规模计算集群,根据用户作业参数分配使用,资源按作业隔离。按资源规格、使用时长及实例数计费,不区分任务(训练作业、部署、开发)。公共资源池是ModelArts默认提供,不需另行创建或配置,您可以直接在AI开发过程中,直接选择公共资源池进行使用。 专属资源池 专属资源池不与其他用户共享,更加高效。 在使用专属资源池之前,您需要先购买一个专属资源池,然后在AI开发过程中选择此专属资源池。如何创建专属资源池参见创建专属资源池。
  • 解释说明 单实例流量限制QPS和请求的输入输出有关,表1中的QPS推荐值是在多轮对话、摘要生产和信息检索场景下预估出的数据,仅供参考,如果要了解其余典型场景的QPS推荐值请联系技术支持。 单位:次/秒 在部署过程中出现错误码“ModelArts.4206”时,表示QPS请求数量达到限制,建议等待限流结束后再重启服务。 表1 各模型的QPS推荐值 模型名称 QPS推荐值 Baichuan2-13B 1 Baichuan2-7B 3 ChatGLM3-6B 3 Llama2-13B 1 Llama2-13B-AWQ 1 Llama2-13B-SQ 1 Llama2-70B 1 Llama2-70B-AWQ 1 Llama2-70B-SQ 1 Llama2-7B 3 Llama2-7B-AWQ 3 Llama2-7B-SQ 3 Llama3-70B 1 Llama3-70B-AWQ 1 Llama3-70B-SQ 1 Llama3-8B 3 Llama3-8B-AWQ 3 Llama3-8B-SQ 6 Llama3.1-70B 1 Llama3.1-8B 3 Qwen1.5-14B 1 Qwen1.5-14B-AWQ 1 Qwen1.5-14B-SQ 1 Qwen1.5-32B 1 Qwen1.5-72B 1 Qwen1.5-72B-AWQ 1 Qwen1.5-72B-SQ 1 Qwen1.5-7B 3 Qwen1.5-7B-AWQ 3 Qwen1.5-7B-SQ 3 Qwen-14B 1 Qwen2-72B 1 Qwen2-72B-AWQ 1 Qwen2-72B-SQ 1 Qwen2-72B-1K 1 Qwen2-72B-32K 1 Qwen2-7B 3 Qwen2-7B-AWQ 3 Qwen-72B 1 Qwen-7B 3 Qwen2-1.5B 6 Qwen2-0.5B 9 Qwen2.5-0.5B 9 Qwen2.5-1.5B 6 Qwen2.5-7B 3 Qwen2.5-14B 1 Qwen2.5-72B 1 Qwen2.5-72B-32K 1 Qwen2.5-72B-AWQ 1 Qwen2.5-72B-SQ 1 Qwen2.5-32B 1 Qwen2.5-32B-AWQ 1 Qwen2.5-32B-SQ 1 Qwen2.5-72B-1K 1 Glm-4-9B 3 Yi-34B 1 Yi-6B 3 Deepseek-Coder-33B 1
  • 启动文件中如何判断文件夹是否复制完毕? 通过如下方式获取复制和被复制文件夹大小,根据结果判断是否复制完毕: import moxing as mox mox.file.get_size('obs://bucket_name/obs_file',recursive=True) 其中,“get_size”为获取文件或文件夹的大小。“recursive=True”表示类型为文件夹,“True”表示是文件夹,“False”为文件。 如果输出结果为一致,表示文件夹复制已完毕。如果输出结果不一致,表示复制未结束。 更多Moxing的操作请参考Moxing手册。
  • 启动文件中如何调用shell脚本? ModelArts支持调用shell脚本,您可以将shell脚本存储至代码目录所在的OBS路径下。 例如代码目录为“ /bucket-name/code/”,启动文件路径为“/bucket-name/code/test.py”,shell脚本路径为“ /bucket-name/code/test.sh” 由于后台会自动将代码目录下载至容器的“/home/work/user-job-dir/”目录下,因此您可以在启动文件中通过如下方式调用shell脚本: import os os.system('bash /home/work/user-job-dir/code/test.sh')
  • 启动文件中,如何获取依赖文件所在的路径? 由于用户本地开发的代码需要上传至ModelArts后台,代码中涉及到依赖文件的路径时,用户设置有误的场景较多。 推荐通用的解决方案:使用os接口去获取文件所在的路径,避免报错。 示例: |---project_root #代码根目录 |---BootfileDirectory #启动文件所在的目录 |---bootfile.py #启动文件 |---otherfileDirectory #其他依赖文件所在的目录 |---otherfile.py #其他依赖文件 在启动文件中,建议用户参考以下方式获取依赖文件所在路径,即示例中的otherfile_path。 import os current_path = os.path.dirname(os.path.realpath(__file__)) # BootfileDirectory, 启动文件所在的目录 project_root = os.path.dirname(current_path) # 工程的根目录,对应ModelArts训练控制台上设置的代码目录 otherfile_path = os.path.join(project_root, "otherfileDirectory", "otherfile.py")
  • 解释说明 “参数名称”:如果您的算法代码中使用argparse解析train_url为训练输出参数,则在创建的算法需要配置输出数据参数为“train_url”。根据实际代码中的训练输出参数定义此处的名称。 此处设置的代码路径参数必须与算法代码中解析的训练输出参数保持一致,否则您的算法代码无法获取正确的输出路径。 例如,代码中通过以下方式添加运行参数,则此处参数名称为train_url: parser.add_argument('--train_url', type=str, default=None, help='test') “描述”:输出参数的说明,用户可以自定义描述。 “获取方式”:输出参数的获取方式,默认使用“超参”,也可以选择“环境变量”。
  • 在ModelArts上运行训练作业时,如何将训练结果存储至OBS桶? 首先用户需要在训练代码中解析输出路径参数,可通过如下代码实现。代码后续可使用train_url指代训练容器运行过程中的本地输出路径。 更多代码适配问题参考开发自定义脚本指导。更多Moxing的操作请参考Moxing手册。 import argparse import moxing as mox # 创建解析 parser = argparse.ArgumentParser(description="train mnist", formatter_class=argparse.ArgumentDefaultsHelpFormatter) # 添加参数 parser.add_argument('--train_url', type=str, default='obs://obs-test/ckpt/mnist', help='the path model saved') # 解析参数 args, unkown = parser.parse_known_args() 在创建自定义算法时,配置输出数据参数。请参考创建算法指导。 在使用算法创建训练作业时,在训练输出位置设置云上数据存储路径。请参考创建训练作业指导。
  • 解释说明 仅“按需计费”模式下支持显示该参数。购买弹性公网IP是指将公网IP地址和路由网络中关联的Server服务器绑定,以实现虚拟私有云内的Server服务器通过固定的公网IP地址对外提供访问服务。 您可以根据实际情况选择以下三种方式: 现在购买:自动为每台Server服务器分配独享带宽的弹性公网IP,带宽值由您设定。 使用已有:为Server服务器分配已有的弹性公网IP。 暂不购买:不使用弹性公网IP的Server服务器不能与互联网互通,仅可作为私有网络中部署业务或者集群的Server服务器使用。 选择已有弹性公网IP后,不能批量创建Server。
  • 解释说明 设置模型对环境的依赖,模型开发者需要提供包名、安装方式、版本约束。当模型配置文件中定义了dependencies参数,配置了依赖包,选择元模型后,运行时依赖将自动罗列已配置的安装依赖包。 当前仅支持pip安装依赖包方式,默认pip源为pypi.org中的包,请在pypi.org中查看是否有对应版本的包并查看包安装限制。 当前支持线下wheel包安装(wheel包必须与模型文件放在同一目录)。
  • pip下载安装包失败,如何处理? 创建模型构建失败,提示pip下载包失败。一般有如下几个原因: pip源中不存在该安装包。当前默认pip源为pypi.org中的包,请在pypi.org中查看是否有对应版本的包并查看包安装限制。 下载的包与对应基础镜像架构不匹配,如arm系统下载了x86的包,python2版本的pip下载了python3的包。查看待安装包的安装限制和前置依赖等,排查是否满足相关要求。具体基础镜像运行环境请参见推理基础镜像列表。 安装pip包有先后依赖关系,请按规范编写模型配置文件中的dependencies参数。
  • 模型配置文件中的安装包依赖参数“dependencies”如何编写? 模型配置文件中的“dependencies”,表示配置模型推理代码需要的依赖包,需要提供依赖包名、安装方式和版本约束的信息。依赖参数编写应遵循以下原则: 安装包存在前后依赖关系。例如您在安装“mmcv-full”之前,需要完成“Cython”、“pytest-runner”、“pytest”的安装,在配置文件中,您需要把“Cython”、“pytest-runner”、“pytest”写在“mmcv-full”的前面。 当依赖包无法完成线上安装时,可以使用线下wheel包安装(wheel包必须与模型文件放在同一目录)。 “dependencies”支持多个“dependency”结构数组以list形式填入。 详细示例代码,可参考导入模型时,模型配置文件中的安装包依赖参数如何编写?
  • 训练代码中引用python依赖包应该如何设置? 您需要在代码目录中创建一个命名为“pip-requirements.txt”的文件,并且在文件中写明依赖包的包名及其版本号。 “代码目录”的结构如下所示 |---代码目录 |---model.py #启动文件。 |---pip-requirements.txt #定义的配置文件,用于指定依赖包的包名及版本号。 “pip-requirements.txt”文件内容如下所示: alembic==0.8.6 bleach==1.4.3 click==6.6 如果您的依赖包不是开源安装包,系统无法自动下载并安装,您需要在“代码目录”放置您编译的whl包。示例请参考常见问题。
  • 解释说明 算法代码存储的OBS路径。训练代码、依赖安装包或者预生成模型等训练所需文件上传至该代码目录下。 代码目录下不能存在他人上传的文件和目录,也不能存在无关的文件和目录,否则可能导致失败。 请注意不要将训练数据放在代码目录路径下。训练数据比较大,训练代码目录在训练作业启动后会下载至后台,可能会有下载失败的风险。 训练作业创建完成后,ModelArts会将代码目录及其子目录下载至训练后台容器中。 例如:OBS路径“obs://obs-bucket/training-test/demo-code”作为代码目录,OBS路径下的内容会被自动下载至训练容器的“${MA_JOB_DIR}/demo-code”目录中,demo-code为OBS存放代码路径的最后一级目录,用户可以根据实际修改。 编程语言不限。 文件数(含文件、文件夹数量)不超过1000个。 文件总大小不超过5GB。
  • 解释说明 提供模型对外Restfull api数据定义,用于定义模型的输入、输出格式。apis为结构体数据,填写规范请参见模型配置文件编写说明中的apis参数说明。 表1 api数据结构说明 参数 是否必选 参数类型 描述 url 否 String 请求路径。默认值为“/”。 自定义镜像 的模型需要根据镜像内实际暴露的请求路径填写“url”。非自定义镜像模型,“url”只能为“/”。 method 否 String 请求方法。默认值为“POST”。 request 否 Object 请求体。包含两个参数: Content-type:指定发送内容类型,默认值为“application/json”。 一般情况包括如下两种内容类型: “application/json”,发送json数据。 “multipart/form-data”,上传文件。 机器学习,仅支持“application/json”。 data:发送数据结构,以json schema描述。json schema说明请参考官方指导。 response 否 Object 响应体。包含两个参数: Content-type:指定接收内容类型,默认值为“application/json”。 data:接收数据结构,以json schema描述。json schema说明请参考官方指导。 apis参数代码示例如下: [{ "url": "/", "method": "post", "request": { "Content-type": "multipart/form-data", "data": { "type": "object", "properties": { "images": { "type": "file" } } } }, "response": { "Content-type": "applicaton/json", "data": { "type": "object", "properties": { "mnist_result": { "type": "array", "item": [ { "type": "string" } ] } } } } }]
  • 计费项 在MaaS进行模型调优时,会产生计算资源、存储资源等的累计值计费。计算资源为调优任务运行的费用。存储资源包括数据存储到OBS的费用。具体内容如表1所示。 表1 计费项 计费项 计费项说明 适用的计费模式 计费公式 计算资源 公共资源池 使用计算资源的用量。 具体费用请参见ModelArts价格详情。 按需计费 规格单价 * 实例数 * 使用时长 优先抵扣套餐包时长 专属资源池 专属资源池的费用已在购买时支付,模型训练时不再收费。 专属资源池的费用请参考专属资源池计费项。 - - 存储资源 对象存储OBS 用于存储模型训练的输入和输出数据。 具体费用请参见对象存储价格详情。 注意: 存储到OBS中的数据需在OBS控制台进行手动删除。若未删除,则会按照OBS的计费规则进行持续计费。 按需计费 包年/包月 创建桶不收取费用,按实际使用的存储容量和时长收费 事件通知(不开启则不计费) 订阅消息使用消息通知服务,在事件列表中选择特定事件,在事件发生时发送消息通知。 如果想使用消息通知,需要在创建训练作业时开启“事件通知”功能。 具体计费请参见消息通知服务价格详情。 按实际用量付费 发送短信通知费用构成:短信通知条数 发送电子邮件费用构成:电子邮件+外网下行流量 发送HTTP(S)费用构成:HTTP(S)+外网下行流量
  • 计费示例 假设用户创建了一个模型调优任务,调优任务运行了2小时停止,其中套餐包余量还有1小时。选择的是规格单价为xx元的公共资源池,实例数为1个。按照计算资源费用、存储费用结算,那么运行这个调优任务的费用计算如下: 计算资源费用 = xx 元/小时 * (调优时长2小时 - 套餐包余量1小时) = xx 元 存储费用:调优的数据通过对象存储服务(OBS)上传或导出,存储计费按照OBS的计费规则。 综上,调优任务的运行费用 = 计算资源费用(xx 元) + 存储费用 使用公共资源池时,仅调优任务状态为运行时才收费。使用专属资源池时,则调优任务不进行单独计费,由专属资源池进行收费。 不同模型存在差异,模型调优的费用存在波动的可能性,最终总费用以实际发生为准。
  • 解释说明 选择存放训练数据集的OBS路径,必须选择到文件。 支持的数据集格式: jsonl格式 一行数据就是数据集中的一条样本,建议总的数据样本不少于2000条,如下所示是一行数据集的示例,单轮对话也可以复用此格式。 {"conversation_id": 1, "chat": {"turn_1": {"Human":"text","MOSS":"text"},"turn_2": {"Human":"text","MOSS":"text"}}} “conversation_id”是样本编号。 “chat”后面是多轮对话的内容 “turn_n”表示是第n次对话,每次对话都有输入(对应Human角色)和输出(对应MOSS角色)。其中Human和MOSS仅用于角色区分,模型训练的内容只有text指代的文本。 单击下载,获取示例数据集“simple_moss.jsonl”,该数据集可以用于文本生成类型的模型调优。 Qwen2.5系列的模型调优,如果使用jsonl数据集,仅支持Alpaca格式的数据集。格式如下: { "instruction": "计算这些物品的数量之和。 ", "input": "输入:汽车 - 3,衣服 - 100,书 - 20。", "output": "汽车、衣服和书的数量之和为 3 + 100 + 20 = 123。" } 如果是用于增量预训练的数据集,则格式如下: [ {"text": "document"}, {"text": "document"} ] xlsx和csv格式 表格里的一行数据就是一条样本。表格中仅有3个字段:conversation_id、human和assistant。 conversation_id:对话ID,可以重复,但必须是正整数。若有多组Human-assiant对话使用同一个ID,则会按照文件中的顺序,将这几组对话编排成一个多轮对话。 human:对话输入,内容不能为空。 assistant:对话输出,内容不能为空。 当前xlsx和csv格式数据集只支持微调,暂不支持增量预训练。
  • 解释说明 选择批量预测结果的保存位置,可以选择您创建的空文件夹。 批量服务的输出结果目录会有一个manifest文件。 假设用户输出结果路径为/test-bucket/test/,则结果存放位置如下: OBS桶/目录名 ├── test-bucket │ ├── test │ │ ├── infer-result-{{task_id}}.manifest │ │ ├── infer-result-{{task_id}} │ │ │ ├── 1.jpg_result.txt │ │ │ ├── 2.jpg_result.txt 文件格式: 文件名为“infer-result-{{task_id}}.manifest”,task_id为批量任务id,批量服务对应唯一的批量任务id。 当处理文件数目较多时,可能会有多个manifest文件,后缀相同,均为“.manifest”,文件名以后缀区分,例如“infer-result-{{task_id}}_1.manifest”等。 manifest同一目录下会创建infer-result-{{task_id}}目录存放文件处理结果。 manifest文件内容是多行JSON,每行JSON描述一个输入数据的对应输出结果。 JSON内容包含多个字段。 source:输入数据描述,与输入的manifest一致。 result:文件处理结果,取值为“SUC CES SFUL”或“FAILED”,分别代表成功和失败。 inference-loc:result为“SUCCESSFUL”时显示。输出结果路径,格式为“obs://{{桶名}}/{{对象名}}”。 error_message:result为“FAILED”时显示。输出失败原因。
  • 解释说明 模型转换时,待转换模型存放的OBS路径。基于不同框架的模型,其模型输入目录的要求不同。 输入框架为Caffe 基于Caffe框架的模型,执行模型转换时,其输入目录需符合如下规范。 | |---xxxx.caffemodel 模型参数文件,输入目录下有且只能有一个,必填。 |---xxxx.prototxt 模型网络文件,输入目录下有且只能有一个,必填。 |---insert_op_conf.cfg 插入算子配置文件,输入目录下有且只有一个,可选。 |---plugin 自定义算子目录,输入目录下有且只能有一个plugin文件夹,可选。仅支持基于TE(Tensor Engine)开发的自定义算子。 输入框架为TensorFlow 基于TensorFlow框架的模型,执行模型转换时,其输入目录需符合如下规范。 | |---saved_model.pb 模型网络文件,输入目录下有且只能有一个,必填。支持以frozen_graph或saved_model格式保存的模型。 |---variables 固定子目录名称,包含模型的权重偏差等信息。“frozen_graph”格式不需要,“saved_model”格式必选。 |---variables.index 必选 |---variables.data-00000-of-00001 必选 |---insert_op_conf.cfg 插入算子配置文件,输入目录下有且只有一个,可选。 |---plugin 自定义算子目录,输入目录下有且只能有一个plugin文件夹,可选。仅支持基于TE(Tensor Engine)开发的自定义算子。
  • 注册镜像 本文主要介绍镜像注册过程中的常见问题解释以及相关授权说明。 什么是镜像注册? ModelArts为用户提供了多种常见的预置镜像,但是当用户对深度学习引擎、开发库有特殊需求场景的时候,预置镜像已经不能满足用户需求。ModelArts提供自定义镜像功能支持用户自定义运行引擎。而用户的自定义镜像如果需要在ModelArts中使用时,均需在镜像管理页面中,通过使用镜像的SWR访问路径进行注册。 镜像注册时,涉及哪些授权项? 自定义镜像注册时,用户在SWR上传的镜像有可能是私有的,如果是私有镜像,ModelArts平台在创建Notebook时,可能会没有权限使用此镜像,因此在注册镜像时,将会通过自动授权的方式,将此镜像仅共享给ModelArts平台服务,用户可随时在SWR服务页面,审核此私有镜像的共享权限,对其进行编辑或删除。 如果待注册的镜像在别的region,应该怎么处理? 镜像上传后,您可以在SWR服务页面添加镜像自动同步功能,帮助您把最新推送的镜像自动同步到其他区域镜像仓库内。详细操作请参考SWR服务的自动同步镜像。 镜像故障恢复后,应该怎么处理? 当用户完成镜像故障排除后,单击镜像名称进入镜像详情页,单击操作列的“镜像同步”完成镜像状态的刷新。 父主题: 镜像管理
共100000条