检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
的版本脚本。 status 否 String 当不指定version时,可通过status查询脚本的状态。默认为SAVED,即查询的是最新提交的版本,当status为PUBLISHED时查询的是脚本的生产版本。 请求参数 表2 请求Header参数 参数名 是否必选 参数类型 说明
实际业务场景选择。 单击“下一步”,进入“调度配置”页面。 调度方式分为“单次调度”和“周期调度”。单次统计选择“单次调度”即可。 单击“提交”,进入质量作业列表页面。 图5 质量作业列表 在CountingRows作业操作列,单击“运行”,生成作业对应的实例。 单击“运维管理”
对于同一版本的数据开发作业,系统基于最新的作业调度实例生成数据血缘关系后,在冷却期(默认为48小时)内不会再次更新数据血缘关系。如需更新,需要等待冷却期结束或将数据开发作业再次提交版本后调度。 数据血缘关系删除需要通过删除作业或删除作业元数据的方式进行,仅将作业停止调度不会触发血缘关系的删除。 新建并运行元数据采集任务
空间资源权限策略限制。在数据开发组件如下场景中,会根据空间资源权限策略进行鉴权。 脚本开发或者作业开发中,选择连接或作业委托、公共委托。 提交脚本或者作业。 对于历史版本中直接在数据开发组件创建的数据连接,暂不支持进行资源权限管理。 对于已有的空间资源权限策略,当已删除对应资源后,策略不会随之自动删除。
作业ID。 progress Float 作业进度,失败时为“-1”,其它情况为0~100。 submission-id Integer 作业提交id。 delete_rows Integer 删除数据行数。 update_rows Integer 更新数据行数。 write_rows
作业ID。 progress Float 作业进度,失败时为“-1”,其它情况为0~100。 submission-id Integer 作业提交id。 delete_rows Integer 删除数据行数。 update_rows Integer 更新数据行数。 write_rows
复制Content-Type属性 “文件格式”为“二进制格式”时,才有该参数。 上传对象时复制源文件的“Content-Type”属性,主要用于静态网站的迁移场景。不支持写入到归档存储的桶。 否 自定义文件名 从关系型数据库导出数据到OBS,且“文件格式”为“CSV格式”时,才有该参数。
“文件格式”为“二进制”,且源端、目的端都为对象存储时,才有该参数。 选择“是”后,迁移对象文件时会复制源文件的Content-Type属性,主要用于静态网站的迁移场景。 归档存储的桶不支持设置Content-Type属性,所以如果开启了该参数,目的端选择写入的桶时,必须选择非归档存储的桶。 否
说明: CDM集群作为管理中心数据连接Agent时,单集群的并发活动线程最大为200。即当多个数据连接共用同一Agent时,通过这些数据连接提交SQL脚本、Shell脚本、Python脚本等任务的同时运行上限为200,超出的任务将排队等待。建议您按照业务量情况规划多个Agent分担压力。
plan_time 是 Long 实例计划时间,13位时间戳,可通过查询作业实例列表接口获取。 submit_time 是 Long 实例提交时间,13位时间戳,可通过查询作业实例列表接口获取。 表5 jobs 参数 是否必选 参数类型 描述 job_name 是 String 重跑的作业名称。
linkConfig.fetchSize 否 String 每次请求获取的数据行数。 linkConfig.commitSize 否 String 每次请求提交的数据行数。 linkConfig.usingNative 否 Boolean 是否使用数据库本地API加速。 创建MySQL连接时,使用
PI调用者通过访问独立域名来调用您开放的API。 在发布API时,会触发审核,审核机制如下: 当发布人不具备审核人权限时,发布API时需要提交给审核人审核。 当发布人具备审核人权限时,可无需审批直接发布API。 如果非审核人权限的用户发布API时,待审核人审核通过后,即可发布完成。
Long 执行耗时,单位:毫秒 instanceId 是 Long 作业实例ID,用于查询作业实例详情。 submitTime 是 Long 作业提交运行时间 instanceType 是 int 作业调度方式: 0:正常调度 2:手工调度 5:补数据 6:子作业调度 7:单次调度 forceSuccess
节点名称只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。 说明: 节点名称不得包含中文字符、超出长度限制等。如果节点名称不符合规则,将导致提交MRS作业失败。 默认情况下,节点名称会与选择的脚本名称保持同步。若不需要节点名称和脚本名称同步,请参考禁用作业节点名称同步变化禁用该功能。
是经过转换后的格式。 当前用户提交Spark SQL脚本到MRS时,默认提交至其绑定的租户队列(绑定队列即用户绑定的租户类型角色所对应的队列)中运行。当绑定多个队列时,系统会优先根据内部排序选择队列进行提交;如果需要给该用户使用固定一个队列进行提交, 可以登录FusionInsight
自动按月或者按年续费。购买时长为按月购买时,自动续费周期为1个月;购买时长为按年购买时,自动续费周期为1年。 单击“立即购买”,确认规格后提交订单。 购买套餐包成功后,系统配额会在默认规格基础上,增加规格增量包部分。 父主题: 购买DataArts Studio实例
单次调度表示需要手动触发运行,周期性调度表示会按照配置定期触发作业运行。此处以当天配置为例,设置每15分钟触发运行一次对账作业为例的配置。 单击“提交”, 完成对账作业的创建。 执行对账作业并查看结果分析 在数据质量模块左侧导航栏中,选择“数据质量监控 > 对账作业”。 单击对账作业操作列中的“运行”,运行对账作业。
键业务流程和IT系统,对本领域数据治理的路标和工作计划进行细化并排序,最终管理执行。 作为本领域数据治理专家,管理并解决问题和争议,必要时提交数据Owner进行裁决。 对业务环节数据的完整性、及时性、准确性、一致性、唯一性、有效性负责,确保行为即记录,记录即数据,并依据数据质量规格对本领域数据进行度量和报告。
format(DateUtil.addDays(Job.planTime,-1),"yyyy-MM-dd")},更多EL表达式请参见EL表达式。 保存并提交作业版本,单击“测试运行”,执行数据开发作业。 数据开发作业执行成功后,单击右上角的“前往监控”,进入“作业监控”页面,查看生成的任务或实例是否符合需求,如图6所示。
Hetu上的数据源名称,本集群的Hive数据源名称默认为“hive”。由于Hetu支持多个Catalog对接同一个Hive,因此您也可以选择其他本集群的Catalog。 单击“提交”,完成hetu权限同步策略创建。 当Hive权限同步触发后,会同步权限至Hetu端Ranger,策略命名格式为“catalog名_sch