检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
enabled(OBS表的指定目录或OBS表分区表的分区目录下有子目录时,是否查询子目录的内容;默认不查询) dli.sql.dynamicPartitionOverwrite.enabled(在动态分区模式时,只会重写查询中的数据涉及的分区,未涉及的分区不删除) 队列名称 是 默认选择SQL脚本中设置的DLI队列,支持修改。
一套整体组件规范。在数据架构的“信息架构”页面,可以查看和管理所有的表,包括逻辑实体、物理表、维度表、事实表、汇总表等资源。 在DataArts Studio控制台首页,选择对应工作空间的“数据架构”模块,进入数据架构页面,查看“信息架构”。 在信息架构页面,可以执行以下操作: 搜索
D对应当前用户。用户可在对应页面下查看不同Region对应的项目ID、账号ID和用户ID。 注册并登录管理控制台。 在用户名的下拉列表中单击“我的凭证”。 在“API凭证”页面,查看账号名和账号ID、IAM用户名和IAM用户ID,在项目列表中查看项目和项目ID。 调用API获取项目ID
和避免调度冲突,推荐您启用数据开发调度即可,无需配置CDM定时任务。 否 抽取并发数 当前任务从源端进行读取最大线程数。 说明: 由于数据源限制,实际执行时并发的线程数可能小于等于此处配置的并发数,如CSS,ClickHouse数据源不支持多并发抽取。 CDM通过数据迁移作业,将
置为“是”,其他配置项保持默认即可。 图10 任务配置 单击“显示高级属性”,可配置“抽取并发数”以及“是否写入脏数据”,如图10所示。 抽取并发数:设置同时执行的抽取任务数。并发抽取数取值范围为1-1000,若配置过大,则以队列的形式进行排队。 CDM迁移作业的抽取并发量,与集群规格和表大小有关。
MRS Kafka 功能 MRS Kafka主要是查询Topic未消费的消息数。 参数 用户可参考表1和表2配置MRS Kafka的参数。 表1 属性参数 参数 是否必选 说明 数据连接 是 选择管理中心中已创建的MRS Kafka连接。 Topic名称 是 选择MRS Kafk
1000个 支持对接API云市场 √ × 支持协议 HTTP或HTTPS HTTPS 支持API策略路由 √ √ 运维分析展示 √ √ 支持后端负载均衡 × √ 支持内部API管理 × √ 后端支持对接私有云 × √ 支持对接专线服务 × √ 性能指标 独立物理多租集群 × √ 出、入网带宽独立
Integer 每页作业数,值在10-100之间。 jobType 否 String 作业类型: jobType=NORMAL_JOB:表示查询表/文件迁移的作业。 jobType=BATCH_JOB:表示查询整库迁移的作业。 jobType=SCENARIO_JOB:表示查询场景迁移的作业。
submission-id Integer 作业提交id。 delete_rows Integer 删除数据行数。 update_rows Integer 更新数据行数。 write_rows Integer 写入数据行数。 execute-date Long 执行时间。 status String 作业状态:
实例数据。 支持查看启动作业执行的全部节点算子实例数的曲线图。 支持查看启动作业执行的不同类型节点算子实例数的曲线图。 DLI运行作业数/队列CU使用量 支持通过DLI队列和时间筛选查看DLI运行作业数和队列CU使用量。 系统默认支持查看七天内的数据。最多可查看一个月的数据。 仅
”、“Tab”、“|”、“;”。默认选择“,”。 单击“运行”,完成创建数据水印溯源任务。 相关操作 查看溯源结果:在数据水印溯源页面,找到需要查看溯源结果的任务,单击对应任务操作栏中的“查看结果”,即可查看溯源结果。注意,只有溯源成功的任务才会显示溯源信息。 图3 溯源信息 删除任务:在数据水
标准化的质量规则。支持周期性的监控。 业务指标监控 监控业务指标 数据质量监控 查看质量作业 步骤8:数据资产查看 在DataArts Studio数据目录模块中,您可以查看数据地图。 数据地图 查看业务资产和技术资产 步骤9:服务退订 进行服务退订,避免持续产生费用。 服务退订
本文将为您介绍如何通过脚本或MyBatis方式生成API。 为了满足高阶用户的个性化查询需求,数据服务提供了自定义SQL的脚本/MyBatis取数方式,允许您自行编写API的查询SQL,并支持多表关联、复杂查询条件以及聚合函数等能力。 脚本方式:仅支持普通SQL语法。 MyBatis方式
在逻辑实体列表中,选择需要编辑的逻辑实体,单击“操作”列的“编辑”,进入编辑页面进行编辑。 发布历史 在逻辑实体列表中,选择需要查看发布历史的逻辑实体,单击“操作”列的“更多 > 发布历史”,进入后可查看逻辑实体的发布历史和版本对比。 浏览SQL 在逻辑实体列表中,选择需要预览SQL的逻辑实体,单击“操作”列的“更多
数据迁移作业提交运行后,CDM会根据作业配置中的“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。 不同源端数据源的作业分片维度有所不同,因此某些作业可能出现未严格按作业“抽取并发数”参数分片的情况。 CDM依次将Task提交给运行池运行。根据集群配置管理中的“最大抽取并发数”参数,超出规格的Task排队等待运行。
障数据全链路、全生命周期安全能力。例如:数据入湖阶段,支持对敏感字段进行脱敏设置,支持对数据源连接进行管控,控制对数据源的访问权限;分析师查询数据时,支持通过动态脱敏策略或字段访问权限来保护敏感数据。 统一数据安全策略:包括统一权限治理、敏感数据治理、隐私保护策略和数据安全运营四大能力。
标准覆盖率统计信息 功能介绍 查看某个数据标准在所有模型字段中的覆盖率,即使用该标准的字段占总字段的百分比。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/design/definitions/statistic/{id} 表1 路径参数 参数
作业运行信息,详见submissions参数说明。 total Integer 查询该作业总的历史记录数。 page_no Integer 查询作业记录时,分页数。 page_size Integer 分页查询,每页返回的记录数。默认值:10。 表5 Submission 参数 参数类型 描述
为本次执行的作业配置相关优化参数(例如线程、内存、CPU核数等),用于优化资源使用效率,提升作业的执行性能。 说明: 数据连接为MRS API连接时支持为Spark SQL作业独立配置需要的资源(例如线程、内存、CPU核数并指定MRS资源队列等)。代理连接时不支持配置。 若集群为MRS
Z:重做 Ctrl + Enter:执行所选行/选中内容 Ctrl + Alt + F:标记 Ctrl + Shift + K:查找上一个 Ctrl + K:查找下一个 Ctrl + Backspace:删除左侧单词 Ctrl + Delete:删除右侧单词 Alt + Backspace:删除至行首