检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
5”,就表示每个月的1日、2日、3日、4日和5日执行该定时任务。 周期类型为“week”时,“runAt”输入“mon,tue,wed,thu,fri”,就表示周一到周五执行该定时任务。 周期类型为“hour”时,“runAt”输入“27,57”,表示周期内的27分和57分执行该定时任务。 schedulerConfig
化管控文化。根据数据治理领导组的愿景和长期目标,建立和管理数据治理流程、阶段目标和计划,设计和维护数据治理方法、总则、工具和平台,协助各数据领域工作组实施数据治理工作,对整体数据治理工作进行度量和汇报,并对跨领域的数据治理问题和争议进行解决和决策。 各领域数据治理工作组:在各领域
应页面下查看不同Region对应的项目ID、账号ID和用户ID。 注册并登录管理控制台。 在用户名的下拉列表中单击“我的凭证”。 在“API凭证”页面,查看账号名和账号ID、IAM用户名和IAM用户ID,在项目列表中查看项目和项目ID。 KMS密钥 是 通过KMS加解密数据源认证
使用Token认证时必选。 workspace 是 String 工作空间ID,获取方法请参见实例ID和工作空间ID。 X-Project-Id 否 String 项目ID,获取方法请参见项目ID和账号ID。 多project场景采用AK/SK认证的接口请求,则该字段必选。 Content-Type
配置数据服务审核中心 数据服务平台的审核中心,提供给API开放方和API调用方用以审核API的发布等操作。 在发布API时,会触发审核,审核机制如下: 当发布人不具备审核人权限时,发布API时需要提交给审核人审核。 当发布人具备审核人权限时,可无需审批直接发布API。 待审核的API可在审核中心由发起者执行撤销操作。
使用Token认证时必选。 workspace 是 String 工作空间ID,获取方法请参见实例ID和工作空间ID。 X-Project-Id 否 String 项目ID,获取方法请参见项目ID和账号ID。 多project场景采用AK/SK认证的接口请求,则该字段必选。 Content-Type
dex.type和hoodie.bucket.index.num.buckets属性可进行配置。 判断使用分区表还是非分区表。 根据表的使用场景一般将表分为事实表和维度表: 事实表通常整表数据规模较大,以新增数据为主,更新数据占比小,且更新数据大多落在近一段时间范围内(年或月或天
数据源为Hive时支持哪些数据格式? 是否支持同步作业到其他集群? 是否支持批量创建作业? 是否支持批量调度作业? 如何备份CDM作业? 如何解决HANA集群只有部分节点和CDM集群网络互通? 如何使用Java调用CDM的Rest API创建数据迁移作业? 如何将云下内网或第三方云上的私网与CDM连通? CDM是否支持参数或者变量?
项目ID,获取方法请参见项目ID和账号ID。 api_id 是 String API编号。 表2 Query参数 参数 是否必选 参数类型 描述 instance_id 否 String 集群ID编号。 start_time 是 Long 开始时间(13位时间戳)。 end_time 是
Studio控制台首页,选择对应工作空间的“数据质量”模块,进入数据质量页面。 选择“数据质量监控 > 质量报告”。 在“技术报告”页签,选择数据连接及时间段,系统支持查询报告的最大时间范围限制为30天,如图1所示。 图1 选择数据连接 以评分满分为5分为例。其中4-5分评价为优秀,3-4分为良好,2-3分为
数据表评分排序,0表示升序,1表示降序,与其他排序条件互斥。 start_timestamp 否 Long 开始时间戳。 end_timestamp 否 Long 结束时间戳。 limit 否 Long 分页条数,取值范围[0,100]。 offset 否 Long 分页偏移量,最小值0。
sub_rule_instance_id 是 String 子规则实例ID。 start_timestamp 否 Long 开始时间戳。 end_timestamp 否 Long 结束时间戳。 limit 否 Long 分页条数,取值范围[0,100]。 offset 否 Long 分页偏移量,最小值0。
使用Token认证时必选。 workspace 是 String 工作空间ID,获取方法请参见实例ID和工作空间ID。 X-Project-Id 否 String 项目ID,获取方法请参见项目ID和账号ID。 多project场景采用AK/SK认证的接口请求,则该字段必选。 Content-Type
项目ID,获取方法请参见项目ID和账号ID。 api_id 是 String API编号。 表2 Query参数 参数 是否必选 参数类型 描述 instance_id 否 String 集群ID编号。 start_time 是 Long 开始时间(13位时间戳)。 end_time 是
项目ID,获取方法请参见项目ID和账号ID。 app_id 是 String APP编号。 表2 Query参数 参数 是否必选 参数类型 描述 start_time 是 Long 开始时间(13位时间戳)。 end_time 是 Long 结束时间(13位时间戳)。 time_unit
时间过滤左边界,与end_time一起使用,只支持时间范围过滤,单边过滤无效。格式遵循RFC3339,精确到秒,UTC时区,即yyyy-mm-ddTHH:MM:SSZ,如1970-01-01T00:00:00Z。 end_time 否 String 时间过滤右边界,与begin_time一起使用只支持时间范围过滤,单
替取值作为field和value。 是 写入前将相同的键删除 写入前将相同的键删除。 否:如果原来Redis已存在类型不同的同名key,则迁移作业会跳过该key。 是:Redis会先删除原有的同名key,再执行迁移。 否 键分隔符 用来分隔关系型数据库的表和列名。 _ 值分隔符
中,并标准化为点数据集和边数据集。 MySQL到MRS Hive迁移作业:正式业务流程中,需要将MySQL中的原始样例数据需要导入MRS Hive中,并标准化为点数据集和边数据集。 创建集群 批量数据迁移集群提供数据上云和数据入湖的集成能力,全向导式配置和管理,支持单表、整库、增量、周期性数据集成。DataArts
可选参数,单击“显示高级属性”后显示。 指定每次请求获取的行数,根据数据源端和作业数据规模的大小配置该参数。如果配置过大或过小,可能影响作业的时长。 1000 单次提交行数 可选参数,单击“显示高级属性”后显示。 指定每次批量提交的行数,根据数据目的端和作业数据规模的大小配置该参数。如果配置过大或过小,可能影响作业的时长。
使用Token认证时必选。 workspace 是 String 工作空间ID,获取方法请参见实例ID和工作空间ID。 X-Project-Id 否 String 项目ID,获取方法请参见项目ID和账号ID。 多project场景采用AK/SK认证的接口请求,则该字段必选。 Content-Type