检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
一键式批量添加标签,快速完成对音频的标注操作,也可以对已标注音频修改或删除标签进行重新标注。音频标注涉及到的标注标签和声音内容只支持中文和英文,不支持小语种。 声音分类是对声音进行分类。语音内容是对语音内容进行标注。语音分割是对语音进行分段标注。 开始标注 登录ModelArts
Step3 权重格式离线转换(可选) AutoAWQ量化完成后,使用int32对int4的权重进行打包。昇腾上使用int8对权重进行打包,在线转换会增加启动时间,可以提前对权重进行转换以减少启动时间,转换步骤如下: 进入llm_tools/AutoAWQ代码目录下执行以下脚本:
该接口支持管理员给IAM子用户设置委托,支持设置当前用户的访问密钥。 若没有授权,ModelArts服务的数据管理、训练管理、开发环境、在线服务等功能将不能正常使用。 调用查看授权列表接口查看用户的授权信息。 在管理用户授权时,可以调用删除授权接口删除指定用户的授权或者删除全量用户的授权。
SWR OperateAccess 必选 CES云监控 授予子用户使用CES云监控服务的权限。通过CES云监控可以查看ModelArts的在线服务和对应模型负载运行状态的整体情况,并设置监控告警。 CES FullAccess 必选 SMN消息服务 授予子用户使用SMN消息服务的
示查询名称中含有Workflow字样的所有工作流。 name 否 String 工作流名称。填写1-64位,仅包含英文、数字、下划线(_)和中划线(-),并且以英文开头的名称。 description 否 String 工作流描述信息。 请求参数 无 响应参数 状态码: 200 表3
业务场景 依赖的服务 委托授权项 说明 在线服务 LTS lts:groups:create lts:groups:list lts:topics:create lts:topics:delete lts:topics:list 建议配置,在线服务配置LTS日志上报。 批量服务 OBS
Step3 权重格式离线转换(可选) AutoAWQ量化完成后,使用int32对int4的权重进行打包。昇腾上使用int8对权重进行打包,在线转换会增加启动时间,可以提前对权重进行转换以减少启动时间,转换步骤如下: 进入llm_tools/AutoAWQ代码目录下执行以下脚本:
Step3 权重格式离线转换(可选) AutoAWQ量化完成后,使用int32对int4的权重进行打包。昇腾上使用int8对权重进行打包,在线转换会增加启动时间,可以提前对权重进行转换以减少启动时间,转换步骤如下: 进入llm_tools/AutoAWQ代码目录下执行以下脚本:
平均可以生成3个有效token,即用1.5倍的时间代价,生成了3倍的token数量,性能提升了100%。 投机推理参数设置 在启动离线或在线推理服务时参考表1所示配置参数,使用投机推理功能。 表1 投机推理相关参数 服务启动方式 配置项 取值类型 配置说明 offline speculative_model
框中,填写文件夹“名称”,单击“确定”完成创建,选择创建的文件夹。 文件夹名称不能包含以下字符 : \/:*?"<>|。 文件夹名称不能以英文句号(.)或斜杠(/)开头或结尾。 文件夹的绝对路径总长度不能超过1023字符。 任何单个斜杠(/)表示分隔并创建多层级的文件夹。 图2 新建文件夹
框中,填写文件夹“名称”,单击“确定”完成创建,选择创建的文件夹。 文件夹名称不能包含以下字符 : \/:*?"<>|。 文件夹名称不能以英文句号(.)或斜杠(/)开头或结尾。 文件夹的绝对路径总长度不能超过1023字符。 任何单个斜杠(/)表示分隔并创建多层级的文件夹。 图2 新建文件夹
用户项目ID。获取方法请参见获取项目ID和名称。 service_id 是 String 服务ID,如需批量删除多个服务,则将多个service_id使用英文半角逗号拼接。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户To
查看诊断报告 Advisor分析profiling会输出html和xlsx两份文件。请优先查看html报告进行训练作业性能调优。xlsx中记录了html中全量数据,如集群计算、通信和下发的耗时,可以基于xlsx对计算耗时、下发耗时和带宽等列进行排序,从而快速过滤出计算慢卡、下发慢卡、带宽最小卡。
VC_WORKER_NUM 训练作业使用的实例数量。 “VC_WORKER_NUM=4” VC_WORKER_HOSTS 多节点训练时,每个节点的域名地址,按顺序以英文逗号分隔,可以通过域名解析获取IP地址。 “VC_WORKER_HOSTS=modelarts-job-a0978141-1712-4f9
若需要部署量化模型,需在Notebook中进行模型权重转换后再部署推理服务。 在推理生产环境中部署推理服务 介绍如何创建AI应用,部署模型并启动推理服务,在线预测服务。 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.907)
String Workflow工作流ID。 workflow_name String 工作流名称。填写1-64位,仅包含英文、数字、下划线(_)和中划线(-),并且以英文开头的名称。 execution_id String 工作流执行ID。 step_name String 节点名称。
${base_image}为基础镜像地址。 ${image_name}为推理镜像名称,可自行指定。 运行完后,会生成推理所需镜像。 如果推理需要使用npu加速图片预处理,需要安装torchvision_npu,可放到镜像制作脚本里面。内容如下: git clone https://gitee.com/ascend/vision
doc_url 是 String 文档http(s)链接。 doc_name 是 String 文档名称,支持1-48位可见字符(含中文),只能以英文大小写字母或者中文字符开头,名称可以包含字母、中文、数字、中划线、下划线。 表5 ModelTemplate 参数 是否必选 参数类型 描述
所有yaml文件的目录和文件名信息。 表3 YamlTemplate 参数 参数类型 描述 algorithm_type_en String AutoSearch算法类型,英文描述。 algorithm_type_zh String AutoSearch算法类型,中文描述。 algorithm_names Array
total Integer 总数。 表4 ProcessorTaskItem 参数 参数类型 描述 label_en String 算法类别的英文名称。 label_zh String 算法类别名称。 template_id String 算法类别的ID。 请求示例 查询数据处理算法类别的列表