-
梯度提升树回归特征重要性 - AI开发平台ModelArts
参数可选,如果含有该参数,表示根据上游的pyspark pipeline模型对象pipeline_model来计算特征重要性 gbt_regressor_model 参数可选,如果含有该参数,表示根据上游的gbt_regressor_model对象来计算特征重要性 输出 特征重要性结果数据集 参数说明
-
创建图像分类数据集并进行标注任务 - AI开发平台ModelArts
已获取IAM的EndPoint和ModelArts的EndPoint。 确认服务的部署区域,获取项目名称和ID、获取帐号名和ID和获取用户名和ID。 已经准备好数据源,例如存放在OBS的“/test-obs/classify/input/cat-dog/”目录下。 已经准备好数据集
-
导入AI应用提示模型或镜像大小超过限制 - AI开发平台ModelArts
导入AI应用提示模型或镜像大小超过限制 问题现象 在导入AI应用时,提示模型或镜像大小超过限制。 原因分析 如果使用的是OBS导入或者训练导入,则是基础镜像、模型文件、代码、数据文件和下载安装软件包的大小总和超过了限制。 如果使用的是自定义镜像导入,则是解压后镜像和镜像下载文件的大小总和超过了限制。
-
创建数据集导出任务 - AI开发平台ModelArts
__AUTO_ANNOTATION__:待确认 source_type_header 否 String 指定导出标注文件中的OBS路径前缀,默认为“obs://”,支持指定“s3://”。由于训练无法解析以“obs”开头图片路径,需要导出manifest中的路径前缀为“s3://”。 status 否 Integer
-
如何查看ModelArts中正在收费的作业? - AI开发平台ModelArts
训练作业:训练作业运行时会收取费用,使用完请及时停止训练作业。同时,也需清理存储到OBS中的数据。 部署上线:模型部署为在线服务、边缘服务时,会收取费用,使用完请及时停止服务。同时,也需清理存储到OBS中的数据。 专属资源池:在使用ModelArts进行AI全流程开发时,若购买了专
-
修改列数据类型 - AI开发平台ModelArts
参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 数据集 参数说明 参数 子参数 参数说明 column_type_map_str - 指定相应列的数据类型的规范化字符串,例如:"column_a:string
-
字符串标签化 - AI开发平台ModelArts
参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 数据集 参数说明 参数 子参数 参数说明 input_column_str - 输入的列名 output_column_str -
-
获取超参敏感度分析结果 - AI开发平台ModelArts
Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project_id}/training-jobs/{training_job_id}/autosearch-parameter-analysis 表1 路径参数 参数 是否必选 参数类型
-
创建项目 - AI开发平台ModelArts
据路径选择已创建的OBS桶及文件夹,需指定至数据文件。 表1 参数说明 参数 说明 “名称” 项目的名称。 名称只能包含数字、字母、下划线和中划线,长度不能超过20位且不能为空。 名称请以大写或小写字母开头。 “训练数据” OBS数据路径及数据文件,选择的OBS数据路径需满足规范
-
查询引擎规格列表 - AI开发平台ModelArts
参数说明 表1 get_train_instance_types参数说明 参数 是否必选 参数类型 描述 session 是 Object 会话对象,初始化方法请参考Session鉴权。 表2 get_framework_list成功响应参数说明 参数类型 描述 List 引擎规格参数列表,请参见表3。
-
属性总览 - AI开发平台ModelArts
以英文字母开头,长度限制为64字符)。同一个Step的输入名称不能重复 是 str data 数据集版本发布节点的输入数据对象 是 数据集或标注任务相关对象,当前仅支持Dataset,DatasetConsumption,DatasetPlaceholder,LabelTask,
-
获取训练作业日志的文件名 - AI开发平台ModelArts
获取训练作业日志的文件名 功能介绍 获取训练作业日志的文件名。 URI GET /v1/{project_id}/training-jobs/{job_id}/versions/{version_id}/log/file-names 参数说明如表1所示。 表1 参数说明 参数 是否必选
-
梯度提升树分类特征重要性 - AI开发平台ModelArts
参数可选,如果含有该参数,表示根据上游的pyspark pipeline模型对象pipeline_model来计算特征重要性 gbt_classify_model 参数可选,如果含有该参数,表示根据上游的gbt_classify_model对象来计算特征重要性 输出 特征重要性结果数据集 参数说明 参数
-
操作步骤 - AI开发平台ModelArts
odel.bin 预训练模型的权重文件。 tokenizer.json (可选)预处理器的词表文件,用于初始化Tokenizer。 tokenizer_config.json (可选)预处理器的配置文件。 modeling_xxx.py (可选)自定义模型的代码文件,继承自Pre
-
训练作业如何调用shell脚本,是否可以执行.sh文件? - AI开发平台ModelArts
训练作业如何调用shell脚本,是否可以执行.sh文件? ModelArts支持调用shell脚本,可以使用python调用“.sh”。具体操作步骤如下: 上传“.sh”脚本至OBS桶,例如“.sh”所在存储位置为 “ /bucket-name/code/test.sh”。 在本地创建“.py”文件,例如“test.p
-
更新训练作业描述 - AI开发平台ModelArts
Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI PUT /v2/{project_id}/training-jobs/{training_job_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。
-
查询训练作业详情 - AI开发平台ModelArts
String nfs服务端路径。 local_path String 挂载到训练容器中的路径。 read_only Boolean nfs挂载卷在容器中是否只读。 表55 log_export_path 参数 参数类型 描述 obs_url String 训练作业日志保存的OBS地址。 host_path
-
查询Workflow - AI开发平台ModelArts
的名称。 type String 类型。枚举值如下: dataset:数据集 obs:OBS swr:SWR model_list:AI应用列表 label_task:标注任务 service:在线服务 conditions Array of Constraint objects
-
折线图 - AI开发平台ModelArts
参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象。 输出 无 参数说明 参数 子参数 参数说明 select_columns_str - 列名组成的格式化字符串,例如: "column_a"
-
Pyspark - AI开发平台ModelArts
Save model to local path. model.save("/tmp/spark_model") 保存完模型后,需要上传到OBS目录才能发布。发布时需要带上config.json配置和推理代码customize_service.py。config.json编写请参考