检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
myhuaweicloud.com HTTPS 华北-北京二 cn-north-2 cdm.cn-north-2.myhuaweicloud.com HTTPS 华北-北京四 cn-north-4 cdm.cn-north-4.myhuaweicloud.com HTTPS 华北-乌兰察布一 cn-north-9
具有OBS相关路径的访问权限。 已开通MapReduce服务MRS,并创建MRS集群。 数据准备 下载Flink作业资源包"wordcount.jar",下载地址:https://github.com/huaweicloudDocs/dgc/blob/master/WordCount.jar 下载的Flink
Object),key:关联关系类型,value:关联关系信息。 type_name String 资产类型。 updated_by String 更新人。 update_time Number 更新时间。 tags Array of TagHeader objects 标签。 classification_names
String 策略创建人。 created_at Long 策略创建时间。 updated_by String 策略更新人。 updated_at Long 策略更新时间。 builtin_rule_id String 内置规则ID。 category_id String 分类ID。
否 Integer 增量作业更新行数,已废弃。 group_name 否 String 组名。 bytes_read 否 Long 作业读取的字节。由系统生成,用户无需填写。 execute_update_date 否 Long 最近一次执行任务更新时间,单位:毫秒。由系统生成,用户无需填写。
否 Integer 增量作业更新行数,已废弃。 group_name 否 String 组名。 bytes_read 否 Long 作业读取的字节。由系统生成,用户无需填写。 execute_update_date 否 Long 最近一次执行任务更新时间,单位:毫秒。由系统生成,用户无需填写。
DMS Kafka连接参数说明 连接DMS的Kafka队列时,相关参数如表1所示。 作业运行中禁止修改密码或者更换用户。在作业运行过程中修改密码或者更换用户,密码不会立即生效且作业会运行失败。 表1 DMS Kafka连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的
图4 导入汇总表 下载汇总表导入模板,编辑完成后保存至本地。 选择是否更新已有数据。 如果系统中已有的表英文名称和模板中的表英文名称相同,系统则认为是数据重复。 不更新:当数据重复时,不会替换系统中原有的数据。 更新:当数据重复时 系统中的原有数据为草稿状态,则会覆盖生成新的草稿数据。
导入前根据条件删除目的表部分数据。 age > 18 and age <= 60 写入模式 INSERT:可向表中插入一行或多行数据。 UPSERT:数据存在则更新,不存在则新增。 INSERT 高级属性 先导入阶段表 如果选择“是”,则启用事务模式迁移,CDM会自动创建临时表,先将数据导入到该临时表
startTime 是 Date 启动时间。 endTime 否 Date 停止时间。 lastUpdateTime 否 Date 状态最后更新时间。 表4 nodes字段数据结构说明 参数名 是否必选 参数类型 说明 name 是 String 节点名称。 status 否 String
生成元数据xml文件是手动单击“生成元数据”触发的,如果在该节点在后续的作业调度运行中,点表和边表结构发生变化,元数据xml文件并不会随之更新,需要手动进入新建元数据窗口,再次单击“生成元数据”重新生成新的元数据xml文件。 生成的元数据xml文件,属性(Property)中的数
导入数据到DWS时,用户可以指定导入模式。 COPY模式,源数据经过管理节点后,复制到DWS的DataNode节点。 UPSERT模式,数据发生主键或唯一约束冲突时,更新除了主键和唯一约束列的其他列数据。 COPY_UPSERT模式,使用DWS专有的高性能批量入库工具。 COPY 导入开始前 导入数据前,选择是否清除目的表的数据:
top_active_movie 图6 查看top_active_movie表数据 开发并调度作业 假设OBS中“movie”和“rating”表是每日更新的,我们希望每天更新Top10电影,那么这里可以使用DLF作业编排和作业调度功能。 在DataArts Studio控制台首页,选择对应工作空间的“数据开发”模块,进入数据开发页面。
DMS Kafka连接 介绍 通过DMS Kafka连接,可以连接DMS Kafka普通队列或者专享版Kafka。目前仅支持从DMS Kafka导出数据到云搜索服务。 连接样例 { "links": [ { "link-config-values": {
Number 数据连接创建时间,时间戳。 dw_catagory String 数据连接类别。 update_type Integer 0:创建 1:更新,默认为0。 状态码: 400 表4 响应Body参数 参数 参数类型 描述 error_msg String 返回的错误信息。 error_code
String API请求协议类型。 枚举值: PROTOCOL_TYPE_HTTP:HTTP协议请求 PROTOCOL_TYPE_HTTPS:HTTPS协议请求 publish_type String 发布类型(已弃用)。 枚举值: PUBLISH_TYPE_PUBLIC:公开 P
原因分析:由于ssh session超时断开了,因此Shell节点失败。 解决办法 编辑ECS的/etc/ssh/sshd_config文件,添加或者更新如下两个值。 ClientAliveInterval 300 ClientAliveCountMax 3 ClientAliveInter
有字段。 on duplicate key update,当存在主键、唯一性索引冲突时,目的表中约束冲突的行除开唯一约束列的其他数据列将被更新。 insert into where条件 “导入开始前”参数选择为“清除部分数据”时配置,配置后导入前根据where条件删除目的表的数据。
在物理表列表中,单击列表上方的“导入”,选择“导入PDM”。在“导入表”对话框中,选择“导入配置”页签。 图12 导入PDM 选择是否更新已有数据。 不更新:当数据重复时,不会替换系统中原有的数据。 更新:当数据重复时 系统中的原有数据为草稿状态,则会覆盖生成新的草稿数据。 系统中的原有数据为发布状态,则会生成下展数据。
30 作业开发 表5 作业开发 API 说明 API流量限制(次/s) 用户流量限制(次/s) 创建作业 创建作业。 300 30 修改作业 更新作业. 300 30 查询作业列表 查询作业列表清单。 300 30 查询作业详情 查询作业详情。 100 10 查询作业文件 查询作业文件。