检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
服务监控 此模块支持选择不同产品、监控项、时间段,查看API的总调用量、调用成功量、调用失败量。 在左侧菜单栏中单击“智驾模型服务”。 选择“服务监控”页签,按需求选择产品、监控项以及时间段。 界面以曲线图的形式显示API的总调用量、调用成功量、调用失败量。 图1 服务监控 父主题:
泛化参数 用户可根据敏感性分析结果,设置当前各项参数的数值。 泛化任务队列管理 用户可以对泛化任务进行优先级排序。 在左侧菜单栏中单击“仿真服务 > 场景管理”。 在界面的右上角,单击“泛化任务管理”,可对需要管理的任务进行上移,置顶等操作。 图8 泛化任务管理 父主题: 逻辑场景管理
关系管理 前提条件 项目的数据类型为“文本”,需要创建关系,并对关系进行管理。 创建关系 在左侧菜单栏中单击“标注服务 > 项目管理”。 选择“标注项目”页签,单击项目名称,进入项目内任务列表。 选择“关系管理”页签,单击“创建”,填写创建信息。 图1 创建关系 名称:自定义关系
逻辑场景功能可批量生成仿真场景,扩充仿真场景库,为自动驾驶开发提供海量仿真场景。自定义逻辑场景的可以进行修改、删除操作,并支持仿真器B。 逻辑场景中场景是完全独立存储与使用的,在逻辑场景生成的泛化场景非常多,其中有价值的场景比例低,如果存储到场景中会对场景模块造成冲击,当前如果认为逻辑场景中保存的个别场景价值高,可以
仿真场景库模块提供场景库管理功能,支持对场景库的增删改查功能。自建场景库将场景格式相同的多个仿真场景集合,便于用户进行开发。 创建场景库 在左侧菜单栏中单击“仿真服务 > 场景管理”。 选择“场景库”页签,单击“场景库分类”后的“新增一级分类”,输入场景库分类名称,用户将新建一个场景库分类。
能,熟悉标注平台界面,开展业务。本节以较典型的标注任务为例,详细介绍标注平台对不同标注任务的操作指导,用户可参考操作指导,依据标注规范快速在平台展开标注。 人车类型图片标注任务 2.5D人车图片标注任务 点云标注任务 点云跟踪标注任务 车道线图片标注任务 语义分割图片标注任务 语义分割点云标注任务
场景挖掘 平台支持基于内置场景挖掘算法和场景识别大模型挖掘的能力,对数据包进行场景挖掘。具体操作步骤如下: 在左侧菜单栏中,单击“数据资产 > 源数据包”。 选择“数据包”页签,单击操作栏中的“详情”,进入数据包详情页。 单击数据包信息的“场景挖掘”,后台会自动进行内置场景挖掘。
进行联合概率分布采样。而离散型参数根据给定的取值列表进行随机采样。 重要型采样 重要性采样是在优化目标边界附近进行采样,利用上一次泛化场景仿真后得到的评测分数进行训练拟合,找到边界后不断在边界附近进行采样。 图3 重要型采样 采样结果 如下图1和图2所示,对于某个逻辑场景进行拉丁
上传模型需包含以下内容: 模型文件。 推理脚本,推理脚本命名为:customer_auto_label.py。 推理脚本所需依赖库。 新建模型仓库 在左侧菜单栏中单击“数据资产 > 模型管理”。 单击“新建模型仓库”,填写基本信息。 图1 新建模型仓库 名称:包含中英文、数字、“_”“-”,不得超过64个字符。
/tmp/dataset/6f91947c-cd47-434b-b654-8332da961d7a/log 如果将日志文件存放在此路径,创建任务成功后可以在平台看到此日志文件。 SOURCE_DATASET_FILE_DIR SOURCE_DATASET_FILE_DIR为标注或通用存储生成数据集时的源数据索引json文件,示例:
批次任务可以拆分为多个子任务,方便多人进行操作。 前提条件 批次任务被拆分为批次子任务。 拆分批次任务 当样本数量庞大时,平台可对批次任务做拆分处理,具体步骤如下: 在左侧菜单栏中单击“标注服务 > 项目管理”。 选择“标注项目”页签,单击项目名称,进入项目内任务列表。 选择“批次任务列表”页签,单击操作栏中的“拆分”。
数据集目录 DATASET CCE: /tmp/data/dataset ModelArts: /home/ma-user/datasets 数据集在训练任务中的存放路径,可自行获取各种数据集信息。 数据集映射 DATASET_MAP {key1: value1, key2: value2}
查看源数据包 原始数据包含车辆采集的各类传感器数据信息,数据导入任务创建完毕后,平台对数据包进行扫描,此模块展示导入成功的数据包。 数据包列表 在左侧菜单栏中,单击“数据资产 > 源数据包”。 选择“数据包”页签,默认显示数据包列表。 图1 数据包列表 表1 数据包列表相关操作 任务 操作步骤
创建评测脚本 添加评测脚本流程为“初始化评测脚本 > 选择评测脚本文件 > 上传评测脚本文件”。具体操作步骤如下: 在左侧菜单栏中单击“训练服务 > 模型评测”。 选择“评测脚本”页签,单击“新建评测脚本”,填写脚本信息。 图1 新建评测脚本 名称:只能包含数字、英文、中文、下划线、中划线,不得超过64个字符。
训练算法 添加自定义算法 添加自定义算法流程为“初始化训练算法 > 选择训练算法文件 > 上传训练算法文件”。具体操作步骤如下: 在左侧菜单栏中单击“训练服务 > 算法管理”。 单击“新建训练算法”,填写算法基本信息。 图1 新建训练算法 名称:包含中英文、数字、“_”“-”,不得超过64个字符。
算法镜像和评测镜像cmd以用户创建项目时输入的运行命令为准,仿真器镜像不支持cmd自定义以后台默认的运行命令为准。Entrypoint只在算法镜像生效,评测镜像和仿真器镜像不支持配置entrypoint。 目前自定义算法、自定义评测、自定义脚本的镜像制作使用的基础镜像版本要求为:ubuntu18
镜像仓库 镜像仓库 平台为用户提供了自定义镜像功能,为了方便用户对镜像进行统一管理,平台设置了镜像仓库管理。 创建镜像仓库 仿真服务 算法管理 在创建任务前,需要创建算法,用户可从本地上传容器镜像。 创建仿真算法 评测管理 支持内置评测配置和自定义评测镜像,对仿真任务中的算法展开评测。
1 /bin/sh -c “/home/main/ros2opendata.py --lidar_calibration_id 5” 完成后在${HOME}/tmp/output目录查看运行结果文件: 父主题: Rosbag转OpenData作业(数据回放)
审核是检验标注任务质量的一个手段,审核的方式是从标注任务中抽取一定比例的图片,通过被抽取的图片标注准确率判断该标注任务整体准确率,该标注任务是否通过审核。 在左侧菜单栏中单击“标注服务 > 项目管理”。 选择“标注项目”页签,单击项目名称。 选择“批次任务列表”,单击批次任务前的。 单击子任务操作栏中的“更多
0,多节点distributed-0 distributed-1。 在该评测任务的详情页面,可单击“任务日志”查看任务在运行过程中生成的所有日志。如果日志较多,可在搜索框中输入关键字,查找指定日志内容。 如图,在日志服务页面中的日志列表部分详细展示了该评测任务包含的所有文件的大小