检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Container,SWR)是一种支持镜像全生命周期管理的服务, 提供简单易用、安全可靠的镜像管理功能,帮助您快速部署容器化服务。您可以通过界面、社区CLI和原生API上传、下载和管理容器镜像。 您制作的自定义镜像需要上传至SWR服务。ModelArts开发环境、训练和创建模型使用的自定义镜像需要从SWR服务管理列表获取。
step()需要加到dataloder迭代循环的内部以保证采集单个Step迭代的Profiling数据。 更多信息,请参见Ascend PyTorch Profiler接口采集。 父主题: 性能调优
Notebook中快速使用MoXing 本文档介绍如何在ModelArts中调用MoXing Framework接口。 进入ModelArts,创建Notebook实例 登录ModelArts管理控制台,在左侧菜单栏中选择“开发空间>Notebook”,进入“Notebook”管理页面。
fest信息的对象,包括Sample样本信息及其标签信息Annotation,然后将若干个样本组成Manifest。保存的时候调用save接口,将session信息传入,即可保存到指定路径。 from modelarts.dataset.format.manifest.annotation
在保存Pascal VOC的XML文件之前需要先创建包含Pascal VOC信息的对象,包括voc object信息等。保存的时候调用save_xml接口,将session信息传入,即可保存到指定路径。 from modelarts.dataset.format.voc.pascal_voc
推理代码及模型需安装的包,默认为空。从配置文件读取。 否 str model_metrics 模型精度信息,从配置文件读取。 否 str apis 模型所有的apis入参出参信息(选填),从配置文件中解析出来。 否 str initial_config 模型配置相关数据。 否 dict template
性能调优总体原则和思路 PyTorch在昇腾AI处理器的加速实现方式是以算子为粒度进行调用(OP-based),即通过Python与C++调用CANN层接口Ascend Computing Language(AscendCL)调用一个或几个亲和算子组合的形式,代替原有GPU的实现方式,具体逻辑模型请参考PyTorch自动迁移。
yaml”文件。 “config.yaml”文件用于配置pod,代码示例如下。代码中的“xxxx_train.sh”即为2修改的训练启动脚本。 apiVersion: batch.volcano.sh/v1alpha1 kind: Job metadata: name: yourvcjobname
的情况下,Fine Tune会是一个比较好的选择。 moxing.tensorflow包含所有的接口,对TensorFlow做了优化,里面的实际接口还是TensorFlow的原生接口。 当非MoXing代码中没有Adam名称范围时,需要修改非MoXing代码,在其中增加如下内容:
、市场发布等业务,这些业务都基于数据集进行的。为了规范对数据集的使用,适配各个使用场景,同时兼顾数据集管理的灵活性,本文档描述数据集管理的接口和描述规范——Manifest文件。 Manifest文件中定义了标注对象和标注内容的对应关系。Manifest文件中也可以只有原始文件信
型不影响int8的scale系数的抽取和加载。 启动kv-cache-int8-per-tensor量化服务。 在使用OpenAI接口或vLLM接口启动推理服务时添加如下参数: --kv-cache-dtype int8_pertensor #只支持int8,表示kvint8 per-tensor量化
al的文件与JupyterLab目录的文件相同。 挂载EVS存储的Notebook,JupyterLab目录的文件可使用Moxing接口或SDK接口,读取OBS中的文件。Terminal的文件与JupyterLab目录的文件相同。 父主题: Standard Notebook
--listen --log-startup --disable-safe-unpickle --skip-prepare-environment --api 基于dockerfile进行build docker build -t webui:v1 . Step4 上传镜像到容器镜像服务 参考pull/push
件,您可以通过如下方式实现: 通过OBS管理控制台进行查看。 使用当前账户登录OBS管理控制台,去查找对应的OBS桶、文件夹、文件。 通过接口判断路径是否存在。在已有的Notebook实例,或者创建一个Notebook,执行如下命令,检查路径是否存在。 import moxing
分析错误时:训练镜像先看日志,推理镜像先看API的返回。 可以通过命令查看容器输出到stdout的所有日志: docker logs -f 39c9ceedb1f6 一般在做推理镜像时,部分日志是直接存储在容器内部的,所以需要进入容器看日志。注意:重点对应日志中是否有ERROR(包括,容器启动时、API执行时)。
Atlas 800训练服务器HCCN Tool Atlas 800 训练服务器 1.0.11 HCCN Tool接口参考主要介绍集群网络工具hccn_tool对外接口说明,包括配置RoCE网卡的IP、网关,配置网络检测对象IP和查询LLDP信息等。 Atlas 800训练服务器备件查询助手
型不影响int8的scale系数的抽取和加载。 启动kv-cache-int8-per-tensor量化服务。 在使用OpenAI接口或vLLM接口启动推理服务时添加如下参数: --kv-cache-dtype int8_pertensor #只支持int8,表示kvint8 per-tensor量化
即OBS桶的路径是否正确。有两种方法判断是否存在。 使用当前账户登录OBS管理控制台,去查找对应的OBS桶、文件夹、文件是否存在。 通过接口判断路径是否存在。在代码中执行如下命令,检查路径是否存在。 import moxing as mox mox.file.exists('o
型不影响int8的scale系数的抽取和加载。 启动kv-cache-int8-per-tensor量化服务。 在使用OpenAI接口或vLLM接口启动推理服务时添加如下参数: --kv-cache-dtype int8_pertensor #只支持int8,表示kvint8 per-tensor量化
型不影响int8的scale系数的抽取和加载。 启动kv-cache-int8-per-tensor量化服务。 在使用OpenAI接口或vLLM接口启动推理服务时添加如下参数: --kv-cache-dtype int8_pertensor #只支持int8,表示kvint8 per-tensor量化