检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
WorkflowDagPolicies 参数 参数类型 描述 use_cache Boolean 是否使用缓存。 请求示例 启动工作流 POST https://{endpoint}/v2/{project_id}/workflows/{workflow_id}/executions { }
period String 计费时期。 queries_limit Long 查询次数。 price Float 价格。 请求示例 GET https://{endpoint}/v2/{project_id}/workflows 响应示例 状态码: 200 OK { "total"
加精细控制的方式。 将Controlnet适配到昇腾卡进行训练,可以提高能效、支持更大模型和多样化部署环境,提升昇腾云在图像生成和编辑场景下的竞争力。 本章节介绍SDXL&SD 1.5模型的Controlnet训练过程。 Step1 处理fill50k数据集 使用ma-user用户在容器上执行如下命令解压数据集。
"D+"表示进程状态为"Uninterruptible Sleep (usually IO)",即进程正在等待I/O操作完成,此时无法被中断。 在正常情况下,nvidia-smi进程通常只会短暂地出现D+状态,因为它们是由内核控制的,该进程处于等待I/O操作完成的状态,可能是在读取或写入GPU相
工作空间ID,默认为“0”。 表2 get_model_list打印参数说明 参数 参数类型 描述 total_count Integer 不分页的情况下,符合查询条件的总模型数量。 count Integer 模型数量。 models model结构数组 模型元数据信息。 表3 model结构
conf sysctl -p | grep net.ipv4.ip_forward Step4 获取训练镜像 请确保在正确的Region下获取镜像。建议使用官方提供的镜像部署训练服务。镜像地址{image_url}请参见表1。 docker pull {image_url} Step5
从本地上传数据到ModelArts数据集 文件型数据来源 文件型数据集支持从两种数据源导入数据:“OBS”和“本地上传”。导入后,导入目录下的数据会复制至数据集的数据源路径下。 OBS:又分为从OBS目录或从Manifest文件两种导入方式,需要将导入的数据或Manifest文件提前存储至OBS目录中。 本地上传
链的集成,目标为不同类型AI开发、探索、教学用户,提供更好云化AI开发体验。 ModelArts Standard Notebook云上云下,无缝协同 代码开发与调测。云化JupyterLab使用,本地IDE+ModelArts插件远程开发能力,贴近开发人员使用习惯 云上开发环境
%s", self.model_outputs) def _preprocess(self, data): # https两种请求形式 # 1. form-data文件格式的请求对应:data = {"请求key值":{"文件名":<文件io>}}
添加标签:单击“添加标签”可增加多个标签。 设置标签颜色:“物体检测”和“图像分割”类型标注作业需设置此参数。在每个标签右侧的标签颜色区域下,可在色板中选择颜色,或者直接输入十六进制颜色码进行设置。 设置标签属性:针对“物体检测”类型标注作业,在设置完标签颜色后,可在右侧单击加号
通常为了获取更好的推理性能,推荐使用方式2的离线推理。下文将以Diffusers img2img onnx pipeline为示例来讲解如何进行离线推理模式下的昇腾迁移。迁移的整体流程如下图所示: 图1 迁移流程图 父主题: 基于AIGC模型的GPU推理业务迁移至昇腾指导
conf sysctl -p | grep net.ipv4.ip_forward Step4 获取训练镜像 请确保在正确的Region下获取镜像。建议使用官方提供的镜像部署训练服务。镜像地址{image_url}请参见表1。 docker pull {image_url} Step5
训练任务。 静态挂载 动态挂载 SFS Turbo 适用于海量小文件业务场景。 提供posix协议的文件系统; 需要和资源池在同一个VPC下或VPC互通; 价格较高。 静态挂载 动态挂载:不支持 SFS 适用于多读多写场景的持久化存储。 适用大容量扩展以及成本敏感型的业务场景,包
”。 在弹出的“资产信息”页面,单击“确定”即可关联资产。 可见范围设置 您可以选择更改您的资产可见性,可选择“公开”或“私密”(私密状态下,也可以选择“仅自己可见”或“指定成员可见”)。 在编辑资产详情时,请勿输入涉政、迷信、违禁等相关敏感词汇。 删除项目 当资产不使用时,支持删除,释放AI
Turbo缓存中,并可被下游业务环节继续读取并处理,结果数据可以异步方式导出到关联的OBS对象存储中进行长期低成本存储,从而加速训练场景下加速OBS对象存储中的数据访问 ModelArts Standard模型训练提供便捷的作业管理能力,提升用户模型训练的开发效率 提供算法资产
conf sysctl -p | grep net.ipv4.ip_forward Step4 获取训练镜像 请确保在正确的Region下获取镜像。建议使用官方提供的镜像部署训练服务。镜像地址{image_url}请参见表1。 docker pull {image_url} Step5
ataset-mnist/”,其中“test-modelarts2”为桶名称。 Training OBS Path 设置OBS路径,该路径下会自动创建用于存放训练输出模型和训练日志的目录。 Running Parameters 运行参数。如果您的代码需要添加一些运行参数,可以在此处添加,多个运行参数使用英文分号隔开,
授权的用户组名称,在右侧的操作列单击“授权”,勾选步骤2创建的自定义策略,单击“下一步”,选择授权范围方案,单击“确定”。 此时,该用户组下的所有用户均有权限通过Cloud Shell登录运行中的训练作业容器。 如果没有用户组,也可以创建一个新的用户组,并通过“用户组管理”功能添
存储位置:输入用户在Notebook中创建的“子目录挂载” 图3 选择SFS Turbo 作业日志选择OBS中的路径,训练作业的日志信息则保存该路径下。 最后,提交训练作业,训练完成后,请参考查看日志和性能章节查看SFT微调的日志和性能。了解更多ModelArts训练功能,可查看模型开发简介。
存储位置:输入用户在Notebook中创建的“子目录挂载” 图3 选择SFS Turbo 作业日志选择OBS中的路径,训练作业的日志信息则保存该路径下。 最后,提交训练作业,训练完成后,请参考查看日志和性能章节查看SFT微调的日志和性能。了解更多ModelArts训练功能,可查看模型开发简介。