检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
户组页面查找待授权的用户组名称,在右侧的操作列单击“授权”,勾选步骤2创建的两条自定义策略,单击“下一步”,选择授权范围方案,单击“确定”。 此时,该用户组下的所有用户均有权限查看该用户组内成员创建的所有Notebook实例。 如果没有用户组,也可以创建一个新的用户组,并通过“用
提供机柜、节点、加速卡、任务多场景故障感知和检测。 提供节点级、作业级、容器级,多级故障恢复,保障千卡作业稳定训练。 多种资源形态 集群模式,开箱即提供好Kubernetes集群,直接使用,方便高效。 节点模式,客户可采用开源或自研框架,自行构建集群,更强的掌控力和灵活性。 零改造迁移 提供业界通用的k8s接口使用资源,业务跨云迁移无压力。
算法名称。限制为1-64位只含数字、字母、下划线和中划线的名称。 description String 对算法的描述,默认为“NULL”,字符串的长度限制为[0, 256]。 workspace_id String 指定算法所处的工作空间,默认值为“0”。“0” 为默认的工作空间。 ai_project
池支持的作业类型进行编辑(新增或减少)。当前支持的“作业类型”有“训练作业”、“推理服务”和“开发环境”,用户可按需自行选择。 设置某一作业类型后,即可在此专属资源池中下发此种类型的作业,没有设置的作业类型不能下发。 为了支持不同的作业类型,后台需要在专属资源池上进行不同的初始化
、下划线和中划线的名称。 job_desc 否 String 对训练作业的描述,默认为“NULL”,字符串的长度限制为[0, 256]。 config 是 Object 创建训练作业需要的参数。详情请参见表3。 workspace_id 否 String 指定作业所处的工作空间,默认值为“0”。
给子账号配置部署上线基本使用权限 给子账号配置查看所有Notebook实例的权限 管理员和开发者权限分离 不允许子账号使用公共资源池创建作业 委托授权ModelArts云服务使用SFS Turbo 给子账号配置文件夹级的SFS Turbo访问权限 父主题: Standard权限管理
“使用推荐权重”:使用平台推荐的权重文件,可提高模型的训练、压缩、部署和调优等服务的使用效率。 “自定义权重”:使用用户自定义的权重文件,需要先将权重文件上传至OBS桶中。且权重文件必须满足对应模型的文件格式要求,详情请参见约束限制。 权重文件指的是模型的参数集合。 说明: 百川和Llama系列模型只支持自定义权重。
参数说明 参数 说明 “授权对象类型” 包括IAM子用户、联邦用户、委托用户和所有用户。 IAM子用户:由主账号在IAM中创建的用户,是服务的使用人员,具有独立的身份凭证(密码和访问密钥),根据账号授予的权限使用资源。IAM子用户相关介绍请参见IAM用户介绍。 联邦用户:又称企业
其中,加粗的斜体字段需要根据实际值填写: “metadata”字段下的“name”和“description”分别为算法的名称和描述。 “job_config”字段下的“code_dir”和“boot_file”分别为算法的代码目录和代码启动文件。代码目录为代码启动文件的一级目录。
调用修改工作空间接口根据工作空间ID修改工作空间的名称、描述、授权类型等信息。 当不需要该工作空间时,可以调用删除工作空间接口删除工作空间。 前提条件 已获取IAM的EndPoint和ModelArts的EndPoint。 确认服务的部署区域,获取项目名称和ID、获取帐号名和ID和获取用户名和ID。 操作步骤 调用认证鉴权接口获取用户的Token。
1、执行权重量化过程中,请保证使用的GPU卡上没有其他进程,否则可能出现OOM; 2、若量化Deepseek-v2-236b模型,大致需要10+小时。 使用量化模型 使用量化模型需要在NPU的机器上运行。 启动vLLM前,请开启图模式(参考步骤六 启动推理服务中的配置环境变量),启动服务的命令和启动非量化模型一致。
针对ModelArts中创建的模型,支持以下发布方式: 发布至AI Gallery AI Gallery是在ModelArts的基础上构建的开发者生态社区,提供算法、模型、数据集等内容的共享,为高校科研机构、模型开发商、解决方案集成商、企业级个人开发者等群体,提供安全、开放的共享,加速AI资产的开发与落地。
训练日志用于记录训练作业运行过程和异常信息,为快速定位作业运行中出现的问题提供详细信息。用户代码中的标准输出、标准错误信息会在训练日志中呈现。在ModelArts中训练作业遇到问题时,可首先查看日志,多数场景下的问题可以通过日志报错信息直接定位。 训练日志包括普通训练日志和Ascend相关日志。
2:基于训练数据集的聚类结果和预测结果不一致。 3:预测结果和训练集同类别数据差异较大。 4:连续多张相似图片的预测结果不一致。 5:图像的分辨率与训练数据集的特征分布存在较大偏移。 6:图像的高宽比与训练数据集的特征分布存在较大偏移。 7:图像的亮度与训练数据集的特征分布存在较大偏移。
使用多输入项的模板创建模型时,如果模板定义的目标路径input_properties是一样的,则此处输入的obs目录或者obs文件不能重名,否则会覆盖。 是 str、Placeholder、Storage 使用案例 主要包含六种场景的用例: 基于JobStep的输出注册模型 基于OBS数据注册模型
训练输出至指定的训练输出路径,请保证您设置的桶路径有写入权限和读取权限。 在ModelArts中,训练代码需包含以下步骤: (可选)引入依赖 当您使用自定义脚本创建算法的时候,如果您的模型引用了其他依赖,您需要在“算法管理 > 创建算法”的“代码目录”下放置相应的文件或安装包。
设置为自动分组任务中的“属性名称”,并通过设置样本属性值,筛选出分组结果。 图2 查看自动分组结果 查看自动分组的历史任务 在数据集详情页面的“全部”页签中,单击“自动分组 > 任务历史”。在弹出的“任务历史”对话框中,展示当前数据集之前执行的自动分组任务的基本信息。 图3 自动分组任务历史
数据集输出位置:用来存放输出的数据标注的相关信息,如版本发布生成的Manifest文件等。单击图标选择OBS桶下的空目录,且此目录不能与输入位置一致,也不能为输入位置的子目录。 数据集输入位置:用来存放源数据集信息,例如本案例中从Gallery下载的数据集。单击图标选择您的OBS桶下的任意一处目录,但不能与输出位置为同一目录。
1、执行权重量化过程中,请保证使用的GPU卡上没有其他进程,否则可能出现OOM; 2、如果量化Deepseek-v2-236b模型,大致需要10+小时。 使用量化模型 使用量化模型需要在NPU的机器上运行。 启动vLLM前,请开启图模式(参考步骤六 启动推理服务中的配置环境变量),启动服务的命令和启动非量化模型一致。
1、执行权重量化过程中,请保证使用的GPU卡上没有其他进程,否则可能出现OOM; 2、若量化Deepseek-v2-236b模型,大致需要10+小时。 使用量化模型 使用量化模型需要在NPU的机器上运行。 启动vLLM前,请开启图模式(参考步骤六 启动推理服务中的配置环境变量),启动服务的命令和启动非量化模型一致。