检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
各个主题域中管理的对象,选择业务对象,筛选与对应业务对象相关的数据集。 容器 容器在应用元模型中与数据集相关联,选择容器,筛选与对应容器相关的数据集。 数据平台实例 数据平台实例在应用元模型中与数据集相关联,选择数据平台实例,筛选与对应数据平台实例相关的数据集。 在“②选择数据集”中,可通过关键字检索、选择标注
发布详细的数据集信息 功能介绍 对请求中的数据集进行申请发布操作,申请发布后会提交到审批模块由Data Owner进行审批,审批通过后自动启动发布流程,将数据集发布到数据集服务中。 URI URI格式 PUT /softcomai/datalake/v1.0/dataSet/publish
检索任务。 集成模式 选择数据集成的模式。 定时:指数据集成任务根据任务计划,在指定的时间执行任务,将源端数据集成到目标端。 说明: 仅数据源类型为MySQL、Oracle、PostgreSQL、SQL Server、Hana时支持定时。 实时:指数据集成任务不断检测源端数据的变更,并实时将新增的数据集成到目标端。
加工数据集 数据集加工场景介绍 数据集清洗算子介绍 加工文本类数据集 加工图片类数据集 加工视频类数据集 加工气象类数据集 管理加工后的数据集 父主题: 使用数据工程构建数据集
发布数据集 数据集发布场景介绍 发布文本类数据集 发布图片类数据集 发布视频类数据集 发布气象类数据集 发布预测类数据集 发布其他类数据集 管理发布后的数据集 父主题: 使用数据工程构建数据集
查看数据集删除申请 前提条件 登录用户为具有“Data Operation Engineer”角色的用户。 操作步骤 在数据服务左侧导航,选择“个人中心>数据集管理>我的申请”界面,可以查看当前用户所有申请信息。 查看数据集删除申请信息,例如,当前审批人和审批结果等。 单击“操作
数据集清洗算子介绍 文本类清洗算子能力清单 视频类清洗算子能力清单 图片类清洗算子能力清单 气象类清洗算子能力清单 父主题: 加工数据集
数据集成指导 业务使用介绍 接入数据源 创建数据集成任务(普通任务) 创建数据集成任务(组合任务) 创建数据集成任务(编排任务) 启停数据集成任务 数据集成任务管理 连接器
支持对数据集进行溯源。 修改数据集 在“微调数据集”页面选择“我创建的”页签。 在数据集列表勾选数据集并单击“操作”列的“修改”。 在“修改数据集”页面,仅支持修改数据集描述、修改标签名称。 删除数据集 单个删除数据集: 在“我的数据集”页面选择“我创建的”页签。 在数据集列表勾
在数据集管理页面,单击“新建数据集”。 在新增数据集页面,设置数据集名称、选择数据类型和目录,单击“保存”。 图1 设置数据集参数 数据集名称:新建数据集的名称,用于标识该数据集。长度为1~60个字符,可包括中文、字母、数字及下划线。 数据类型:选择“静态数据”。 目录:为数据集指定目录,可以选择(可选)新建目录中创
下架数据集 功能介绍 对请求中的数据集进行申请下架操作,申请发布后会提交到审批模块由Data Owner进行审批,审批通过后自动启动下架流程,将数据集从数据集服务下架,下架后的数据集将不能在数据集服务中查看到,且不能提供给消费侧订阅使用。 URI URI格式 DELETE /softcomai/datalake/v1
章节。 操作步骤 在数据集服务首页界面上方,单击“+新数据集”。 数据集服务支持一键式将本地数据文件发布为数据集,具体操作方法请参见数据集服务《用户指南》。 在弹出界面,单击。 在“数据集发布”界面上,单击展开待发布的数据集所在的数据目录。 选中待发布的数据集左侧的复选框。 单击“下一步”。
是 String 数据集名称 最小长度:1 最大长度:64 data_type 是 String 数据集数据类型 枚举值: IMAGE(图片) POINT_CLOUD(点云) TEXT(文本) VIDEO(视频) dataset_form 是 String 数据集形式 枚举值: DATASET(数据集)
配置映射规则 概述 本节主要提供数据集成任务映射规则的配置说明。可以通过配置ROMA Connect源端数据字段到目标端数据字段的映射规则,把获取到的源端数据转换成写入目标端的数据。规则映射有映射模式和脚本模式两种模式,其中映射模式包含自动配置和手动配置两种方式。 约束与限制 源
数据集服务备份 功能介绍 为防止数据服务异常后用户数据丢失,数据资产管理服务通过该接口定期向数据集服务下发数据备份的命令,数据集服务受到备份的命令后以租户粒度将各租户下的数据备份。 URI URI格式 GET /softcomai/datalake/v1.0/datacatalog/backup/start
数据集 数据集主要包含两块:左侧树状导航展示数据集路径、右侧可进行新建数据集操作。 图1 数据集 数据集可以直接从数据源在线导入,也可以离线导入本地文件。 图2 数据集导入 单击“数据集”,可看到该数据集详情和元数据信息。 图3 数据集详情 图4 元数据 父主题: DataLab用户手册
下载数据集 下载数据集到OBS 父主题: 消费数据集
设置缓存时间(秒)。 管理数据集 相关任务和对应的操作如表2所示。 表2 管理数据集 操作任务 操作步骤 搜索数据集 在搜索框中输入数据集关键字,页面中显示搜索结果。 查看数据集详情 在数据集页面,单击数据集名称。 页面右侧弹出数据集详情,详情中包含数据集基本信息,列信息,指标信息,设置的缓存时间。
速识别和查找。 描述 填写任务的描述信息。 集成模式 选择数据集成的模式。 定时:指数据集成任务根据任务计划,在指定的时间执行任务,将源端数据集成到目标端。 实时:指数据集成任务不断检测源端数据的变更,并实时将新增的数据集成到目标端。 使用Kafka作为源端数据源时仅支持实时任务,此处选择“实时”。
下载数据集到OBS 功能介绍 下载数据集到OBS桶中。 URI URI格式 POST /softcomai/datalake/v1.0/download/obs 参数说明 无。 请求 请求样例 POST https://endpoint/softcomai/datalake/v1