-
在线服务预测报错MR.0105 - AI开发平台ModelArts
部署为在线服务,服务处于运行中状态,预测时报错:{ "erno": "MR.0105", "msg": "Recognition failed","words_result": {}}。 图1 预测报错 原因分析 请在“在线服务”详情页面的日志页签中查看对应的报错日志,分析报错原因。 图2 报错日志
-
ma-cli configure鉴权命令 - AI开发平台ModelArts
Notebook中可以不用执行鉴权命令,默认使用委托信息,不需要手动进行鉴权操作; 如果用户在ModelArts Notebook中也配置了鉴权信息,那么将会优先使用用户指定的鉴权信息。 在鉴权时,注意您的敏感信息数据保护,避免敏感信息泄露。 命令参数总览 $ ma-cli configure -h Usage: ma-cli
-
更新服务配置 - AI开发平台ModelArts
权重百分比,分配到此模型的流量权重,仅当infer_type为real-time时需要配置,多个权重相加必须等于100;当在一个在线服务中同时配置了多个模型版本且设置不同的流量权重比例时,持续地访问此服务的预测接口,ModelArts会按此权重比例将预测请求转发到对应的模型版本实例。 specification
-
在k8s集群配置Ascend使用环境 - AI开发平台ModelArts
在安装了kubectl工具的机器上执行如下命令,显示集群节点即为成功。 kubectl get node Step 3:准备业务基础镜像 当前推荐的开发模式是在物理机上启动自己的docker容器进行开发。容器镜像可以使用自己的实际业务镜像,也可以使用ModelArts提供的基础镜像,Model
-
审计与日志 - AI开发平台ModelArts
操作列表。 图1 云审计服务 数据管理支持审计的关键操作列表 表1 数据管理支持审计的关键操作列表 操作名称 资源类型 事件名称 创建数据集 dataset createDataset 删除数据集 dataset deleteDataset 更新数据集 dataset updateDataset
-
查看服务详情 - AI开发平台ModelArts
表5 常用的正则匹配表达式 字符 描述 “.” 匹配除“\n”之外的任何单个字符串。需匹配包括“\n”在内的任何字符,请使用“(.|\n)”的模式。 “*” 匹配前面的子表达式零次或多次。例如,“zo*”能匹配“z”以及“zoo”。 “+” 匹配前面的子表达式一次或多次。例如,“zo
-
文本TF-IDF - AI开发平台ModelArts
文本TF-IDF 概述 文本TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库出现的频率成反比下降。文本TF-IDF用于展示文本基于词频统计的输出,经TF-IDF加权的结果。
-
使用ma-cli ma-job submit命令提交ModelArts训练作业 - AI开发平台ModelArts
--workspace-id String 否 作业所处的工作空间,默认值为“0”。 --policy String 否 训练资源规格模式,可选值regular、economic、turbo、auto。 --volumes String 否 挂载EFS,如果需要指定多个参数,可以使用--volumes。
-
使用自定义镜像创建算法 - AI开发平台ModelArts
输入约束 开启后,用户可以根据实际情况限制数据输入来源。输入来源可以选择“数据存储位置”或者“ModelArts数据集”。 如果用户选择数据来源为ModelArts数据集,还可以约束以下三种: 标注类型。数据类型请参考标注数据。 数据格式。可选“Default”和“Carbon
-
模型部署为推理服务 - AI开发平台ModelArts
当使用自定义镜像部署推理服务时,“推理任务类型”默认为“自定义”,且不支持修改。 参数设置 当使用自定义镜像部署推理服务时,如果自定义镜像的“模型文件”中上传了“gallery_inference/inference_params.json”文件,则此处会显示inference_params文件里的
-
LDA - AI开发平台ModelArts
"sentence" topics_k 是 主题数目>=2 2 min_doc_freq 否 最小词数阈值 0 words_col 否 分词后的words列 "words" feature_col 否 features列 "features" raw_features_col 否 raw
-
从AI Gallery订阅的Workflow如何使用 - AI开发平台ModelArts
Gallery订阅的Workflow如何使用 登录AI Gallery的Workflow案例库。 从AI Gallery的Workflow资产页面,选择并订阅一个Workflow,勾选“我已阅读 《数据安全与隐私风险承担条款》和《华为云AI Gallery服务协议》”后,单击“继续订阅”。
-
使用SDK调测多机分布式训练作业 - AI开发平台ModelArts
TrainingFiles code_dir = os.path.join(base_local_path, "train/") # 这里提前将训练脚本放在了obs中,实际上训练脚本可以是任何来源,只要能够放到Notebook里边就行 session.obs.download_file(os.path
-
如何安装C++的依赖库? - AI开发平台ModelArts
如何安装C++的依赖库? 在训练作业的过程中,会使用到第三方库。以C++为例,请参考如下操作步骤进行安装: 将源码下载至本地并上传到OBS。使用OBS客户端上传文件的操作请参见上传文件。 将上传到OBS的源码使用Moxing复制到开发环境Notebook中。 以下为使用EVS挂载
-
模型微调 - AI开发平台ModelArts
当使用自定义镜像进行模型微调时,“训练任务类型”默认为“自定义”,且不支持修改。 准备数据 本地上传数据需要确保数据已按照数据集要求完成编排。如果是自定义模型,此处的数据集要求即为模型文件“dataset_readme.md”里的内容。 本地上传数据支持上传csv、json、jsonl、txt、jpg、pn
-
优化算子执行 - AI开发平台ModelArts
Size([2, 2, 6]) 减少不必要的格式转换算子 关于数据排布格式,NPU在NCHW基础格式上,定义了众多与硬件强相关的私有格式,用于加速硬件计算,NPU对于不同的计算单元(cube、vector)所使用的默认私有格式不一致,导致在数据在不同的计算单元下流通时需要进行格式转化。此外,基
-
pipeline代码适配 - AI开发平台ModelArts
Lite上执行。只需要将原始onnx的pipeline中涉及到onnx模型初始化及推理的接口替换为MindSpore Lite的接口即可。 MindSpore Lite提供了Python、C++以及JAVA三种应用开发接口,此处以Python接口为例,介绍如何使用MindSpore Lite Python API构建并推理Stable
-
在lite资源池上使用Snt9B完成分布式训练任务 - AI开发平台ModelArts
查看卡信息,执行以下命令。 npu-smi info kubernetes会根据config.yaml文件中配置的卡数分配资源给pod,如下图所示由于配置了1卡因此在容器中只会显示1卡,说明配置生效。 图1 查看卡信息 修改pod的卡数。由于本案例中为分布式训练,因此所需卡数修改为8卡。 删除已创建的pod。
-
文本分类 - AI开发平台ModelArts
是 文本列 "sentence" label_col 是 标签列(标签值需整数或浮点型) "label" words_col 否 用于分词后保存words的列名 "words" feature_col 否 用于保存feature的列名 "features" min_doc_freq
-
AIGC工具tailor使用指导 - AI开发平台ModelArts
run(input_shape=input_shape, output_path="/home/xxx") 运行结果将存储在output文件夹中,如果用户指定了output_path,会指定位置保存,如果不指定则在当前代码执行目录生成文件夹保存输出。整体运行的结果都存放在output文件夹中,每转一