检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 workflow_id 是 String 工作流的ID。 请求参数 无 响应参数 无 请求示例 删除Workflow工作流 DELETE https://{en
在需要查看的事件左侧,单击展开该事件的详细信息。 单击需要查看的事件“操作”列的“查看事件”,可以在弹窗中查看该操作事件结构的详细信息。 更多关于云审计服务事件结构的信息,请参见《云审计服务用户指南》。 父主题: 使用CTS审计ModelArts服务
列单击“启动IPv6”,如图3 打通VPC前,需要保证ModelArts网络和您的VPC网络都已开启IPv6,IPv6才会生效。若是打通VPC后,才开启ModelArts网络的IPv6或VPC网络的IPv6,此时需要重新打通VPC及子网,IPv6才会生效。 图2 创建网络 图3 启动IPv6
查看ModelArts模型事件 创建模型的(从用户可看见创建模型任务开始)过程中,每一个关键事件点在系统后台均有记录,用户可随时在对应模型的详情页面进行查看。 方便用户更清楚的了解创建模型过程,遇到任务异常时,更加准确的排查定位问题。可查看的事件点包括: 事件类型 事件信息(“XXX”表示占位符,以实际返回信息为准)
签之间的分隔符可通过text_sample_separator和text_label_separator指定。 text_label_separator 否 String 标签与标签之间的分隔符,默认为逗号分隔,分隔符需转义。分隔符仅支持一个字符,必须为大小写字母,数字和“!@#$%^&*_=|
1、执行权重量化过程中,请保证使用的GPU卡上没有其他进程,否则可能出现OOM; 2、若量化Deepseek-v2-236b模型,大致需要10+小时。 使用量化模型 使用量化模型需要在NPU的机器上运行。 启动vLLM前,请开启图模式(参考步骤六 启动推理服务中的配置环境变量),启动服务的命令和启动非量化模型一致。
1、执行权重量化过程中,请保证使用的GPU卡上没有其他进程,否则可能出现OOM; 2、如果量化Deepseek-v2-236b模型,大致需要10+小时。 使用量化模型 使用量化模型需要在NPU的机器上运行。 启动vLLM前,请开启图模式(参考步骤六 启动推理服务中的配置环境变量),启动服务的命令和启动非量化模型一致。
服务授权列表 待授权的服务 适用场景 ModelArts 授予子用户使用ModelArts服务的权限。 ModelArts CommonOperations没有任何专属资源池的创建、更新、删除权限,只有使用权限。推荐给子用户配置此权限。 如果需要给子用户开通专属资源池的创建、更新、删除权限,此处要勾选ModelArts
Integer 作业排队位置。 createTime Integer 作业创建时间。 gvk String 作业的k8s资源类型、分组和版本。 hostIps String 作业运行的节点IP列表,逗号分隔。 表5 resourceRequirement 参数 参数类型 描述 cpu String
方法。 专属池驱动版本如何升级? 当专属资源池中的节点含有GPU/Ascend资源时,用户基于自己的业务,可能会有自定义GPU/Ascend驱动的需求,ModelArts面向此类客户提供了自助升级专属资源池GPU/Ascend驱动的能力,具体操作请参见资源池驱动升级。 父主题: FAQ
用户项目ID。获取方法请参见获取项目ID和名称。 请求参数 表2 请求Body参数 参数 是否必选 参数类型 描述 agency_name_suffix 否 String 委托名称后缀。 长度不大于50位。 委托名称前缀固定为ma_agency。 如该字段为iam-user01,则创建出来的委托名称为ma_agency_iam-user01。
开发者的新特性需求。基于服务演进,ModelArts团队已于2021年上线新版训练,力求解决存在的历史问题,并为新特性提供高性能、高易用、可扩展、可演进的底座,给用户提供更好的AI训练体验,打造易用、高效的AI平台。 下线旧版训练管理对现有用户的使用是否有影响? 正在使用的训练作
1、执行权重量化过程中,请保证使用的GPU卡上没有其他进程,否则可能出现OOM; 2、若量化Deepseek-v2-236b模型,大致需要10+小时。 使用量化模型 使用量化模型需要在NPU的机器上运行。 启动vLLM前,请开启图模式(参考步骤六 启动推理服务中的配置环境变量),启动服务的命令和启动非量化模型一致。
json文件至加载的权重文件/tokenizer目录下,参考路径上传代码和权重文件到工作环境中的步骤3。 cp -f config.json {work_dir}/tokenizers/falcon-11B/ glm4-9b模型 在训练开始前,需要修改glm4-9b模型中的tokeni
用户项目ID。获取方法请参见获取项目ID和名称。 workforce_id 是 String 标注团队ID。 请求参数 无 响应参数 状态码: 200 表2 响应Body参数 参数 参数类型 描述 create_time Long 标注团队的创建时间。 description String 标注团队的描述。 update_time
是 String 用户项目ID。获取方法请参见获取项目ID和名称。 表2 Query参数 参数 是否必选 参数类型 描述 end_time 是 Long 监控信息的截止时间。 start_time 是 Long 监控信息的起始时间。 workforce_task_id 否 String
用户项目ID。获取方法请参见获取项目ID和名称。 algorithm_id 是 String 算法ID。 请求参数 无 响应参数 无 请求示例 如下以修改uuid为2e5451fe-913f-4492-821a-2981031382f7的算法为例。 DELETE https://
删除数据集 功能介绍 删除数据集,但不删除数据集的源数据。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI DELETE /v2/{project_id}/datasets/{dataset_id}
用户项目ID。获取方法请参见获取项目ID和名称。 job_id 是 String 可视化作业ID。 请求消息 无请求参数。 响应消息 响应参数如表2所示。 表2 响应参数 参数 参数类型 说明 is_success Boolean 请求是否成功。 error_code String 调用失败时的错误码,具体请参见错误码。
json文件至加载的权重文件/tokenizer目录下,参考路径上传代码和权重文件到工作环境中的步骤3。 cp -f config.json {work_dir}/tokenizers/falcon-11B/ glm4-9b模型 在训练开始前,需要修改glm4-9b模型中的tokeni