检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
[镜像名称1:版本名称1] [镜像仓库地址]/[组织名称]/[镜像名称2:版本名称2] [镜像名称1:版本名称1]:${image_name}:${image_version}请替换为您所要上传的实际镜像的名称和版本名称。 [镜像仓库地址]:可在SWR控制台上查询,即1.c中登录指令末尾的域名。
等,提供了高可靠性的数据存储解决方案。 约束限制 适配的CANN版本是cann_8.0.rc3,驱动版本是23.0.6。 本案例仅支持在专属资源池上运行,确保专属资源池可以访问公网。 文档更新内容 6.3.912版本是第一次发布。 支持的模型列表 本方案支持以下模型的训练,如表1所示。
如果要使用自动重启功能,资源规格必须选择八卡规格。 适配的CANN版本是cann_8.0.rc3,驱动版本是23.0.6。 本案例仅支持在专属资源池上运行,确保专属资源池可以访问公网。 文档更新内容 6.3.909版本相对于6.3.908版本新增如下内容: 文档中新增对Llama3.1的适配。
ascendfactory-cli方式启动(推荐) 相对于之前demo.sh方式启动(历史版本)的启动方式,本章节新增了通过benchmark工具启动训练的方式。此方式训练完成后json日志或打屏日志直接打印性能结果,免于计算,方便用户验证发布模型的质量。并且新的训练方式将统一管
查询数据集导出任务列表 功能介绍 分页查询数据集导出任务列表。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project_id}/datase
"http_proxy=http://xxx.xxx.xxx.xxx" --network=host -t <镜像名称>:<版本名称> . <镜像名称>:<版本名称>:定义镜像名称。示例:pytorch_2_2_ascend:20241106 构建镜像前需保证Dockerfile文
order="desc") print(model_object_list) 参数说明 查询模型列表,返回list,list大小等于当前用户所有已经部署的模型个数, list中每个元素都是Model对象,对象属性和查询模型详情相同。查询模型列表返回说明: model_list = [model_instance1
搜索业务所需的算法,请参见查找资产。 单击目标算法进入详情页面。 在详情页面您可以查看算法的“描述”、“交付、”“限制”、“版本”、“关联资产”和“评论”等信息。 为方便您的使用,在订阅算法时,建议您查看算法详情页“版本”页签中关于算法对应版本的“使用约束”,准备对应的数据和资源规格后进行使用。
--network=host --build-arg install_type=llamafactory -t <镜像名称>:<版本名称> . <镜像名称>:<版本名称>:定义镜像名称。示例:pytorch_2_2_ascend:20241106 install_type:安装类型,默
查询训练作业详情 功能介绍 查询训练作业详情。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project_id}/training-jobs/{training_job_id}
"http_proxy=http://xxx.xxx.xxx.xxx" --network=host -t <镜像名称>:<版本名称> . <镜像名称>:<版本名称>:定义镜像名称。示例:pytorch_2_2_ascend:20241106 构建镜像前需保证Dockerfile文
查询智能标注的样本列表 功能介绍 查询数据集中智能标注的样本列表。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project_id}/data
查询数据集导出任务的状态 功能介绍 查询数据集导出任务的状态。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project_id}/datase
购买的所有类型的计算资源均不支持跨Region使用。 计算资源 套餐包 套餐包仅用于公共资源池,不能用于专属资源池。 配额限制 查看每个配额项目支持的默认配额,请参考怎样查看我的配额?,登录控制台查询您的配额详情。 表2 配额 资源类型 默认配额限制 是否支持调整 说明 Standard Notebook
count Integer 查询到当前用户名下的所有符合查询条件的算法总数。 limit Integer 查询到当前用户名下的所有算法限制个数。 offset Integer 查询到当前用户名下的所有算法查询偏移量。 sort_by String 查询到当前用户名下的所有算法排序依赖字段。
范围为[0, 500]。 log_file 是 String 需要查看的日志文件名称,获取方式请参见获取训练作业日志的文件名。 order 否 String 日志查询的方向。 desc:向下查询。 asc:向上查询。 请求消息 无。 响应消息 响应参数如表3所示。 表3 响应参数
kv-cache-int8量化支持的模型请参见表3。 Step1使用tensorRT量化工具进行模型量化,必须在GPU环境 在GPU机器上使用tensorRT 0.9.0版本工具进行模型量化,工具下载使用指导请参见https://github.com/NVIDIA/TensorRT-LLM/tree/v0.9.0。
ModelArts Edge 为客户提供了统一边缘部署和管理能力,支持统一纳管异构边缘设备,提供模型部署、Al应用和节点管理、资源池与负载均衡、应用商用保障等能力,帮助客户快速构建高性价比的边云协同AI解决方案。 适用于边缘部署场景。 AI Gallery AI Gallery
查询训练作业详情 示例代码 在ModelArts notebook平台,Session鉴权无需输入鉴权参数。其它平台的Session鉴权请参见Session鉴权。 方式一:根据指定的job_id查询。 from modelarts.session import Session from
如果要使用自动重启功能,资源规格必须选择八卡规格。 适配的CANN版本是cann_8.0.rc3,驱动版本是23.0.6。 本案例仅支持在专属资源池上运行。 文档更新内容 6.3.908版本相对于6.3.907版本新增如下内容: 文档和代码中新增对mistral和mixtral模型的适配,并添加训练推荐配置。