检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
时间格式,请参见fromJobConfig.formats参数说明。 fromJobConfig.formats参数说明 参数 是否必选 类型 说明 name 是 String 列号,例如:“1”。 value 是 String 时间格式,例如:“yyyy-MM-dd”。 父主题: 源端作业参数说明
Flink Job节点的“运行程序参数”里面引用参数模板。 选择MRS集群名。 运行程序参数会自动展示出来。单击“选择模板”进入后,选择已创建的参数模板,系统支持可以引用多个模板。 参数名称及参数值会自动展示出来,如下图所示。 图3 运行程序参数引用参数模板 在Flink SQL单任务作业中引用脚本模板。
"connector-name": "hbase-connector" } ] } 连接参数 参数 是否必选 类型 说明 linkConfig.hbaseType 是 枚举 HBase类型: CloudTable:表示连接CloudTable服务。 MRS:表示连接MRS的HBase。
"connector-name": "dli-connector" } ] } 连接参数 参数 是否必选 类型 说明 linkConfig.ak 是 String 登录DLI数据库的AK。 linkConfig.sk 是 String 登录DLI数据库的SK。
"connector-name": "sftp-connector" } ] } 连接参数 FTP和SFTP的连接参数相同。 参数 是否必选 类型 说明 linkConfig.server 是 String FTP或SFTP服务器的地址。 linkConfig
配置作业节点的请求头参数。 在“参数值”里面引入变量名称,例如{para}。 图2 配置请求头参数 配置作业参数。 单击“作业参数配置”,进入“作业参数配置”界面。 在“变量”里面输入该变量para和变量值。该值的大小不能超过1024个字符。 图3 配置作业参数 按照上述方法就可以解决请求头参数值输入的长度问题。
"connector-name": "kafka-connector" } ] } 连接参数 参数 是否必选 类型 说明 linkConfig.hadoopType 是 枚举 Hadoop类型: MRS:表示连接MRS的Kafka。 Apache Kafka:表示连接Apache
作业使用的Spark镜像类型,当前支持基础型、AI增强型和自定义的Spark镜像。 自定义镜像需要选择自定义镜像名称和对应版本。仅当DLI队列为容器化队列类型时,出现本参数。 自定义镜像是DLI的特性。用户可以依赖DLI提供的Spark或者Flink基础镜像,使用Dockerfi
创建了Hive到DWS类型的连接,进行CDM传输任务失败时如何处理? 问题描述 创建了Hive到DWS类型的连接,进行CDM传输任务失败。 解决方案 建议清空历史数据后再次尝试该任务。在使用CDM迁移作业的时候需要配置清空历史数据,然后再做迁移,可大大降低任务失败的概率。 父主题:
"hive-connector" } ] } 连接参数 参数 是否必选 类型 说明 llinkConfig.host 是 String MRS Manager的IP地址。 linkConfig.authType 是 枚举 访问MRS的认证类型: SIMPLE:非安全模式选择Simple鉴权。
"connector-name": "hdfs-connector" } ] } 连接参数 参数 是否必选 类型 说明 linkConfig.hadoopType 是 枚举 Hadoop类型: MRS:表示连接MRS的HDFS。 FusionInsight HD:表示连接FusionInsight
"connector-name": "hbase-connector" } ] } 连接参数 参数 是否必选 类型 说明 linkConfig.hbaseType 是 枚举 HBase类型: CloudTable:表示连接CloudTable服务。 MRS:表示连接MRS。 FusionInsight
"connector-name": "mongodb-connector" } ] } 连接参数 参数 是否必选 类型 说明 linkConfig.serverList 是 String 服务器地址列表,格式如:“host1:port1;host2:port2”。
Python节点支持脚本参数和作业参数。 参数 用户可以参考表1和表2配置Python节点的参数。 表1 属性参数 参数 是否必选 说明 Python语句或脚本 是 可以选择Python语句或Python脚本。 Python语句 单击“Python语句”参数下的文本框,在“Pyth
"connector-name": "dis-connector" } ] } 连接参数 参数 是否必选 类型 说明 linkConfig.region 是 String DIS服务所属地域。 linkConfig.endpoint 是 String
Hudi字段类型映射 Migration会根据源端的字段类型按默认规则转换成目的端字段类型,并以此完成自动建表和实时同步。 字段类型映射规则 当源端为MySQL,目的端为Hudi时,支持的字段类型请参见下表,以确保数据完整同步到目的端。 表1 MySQL >Hudi支持的字段类型 类别
PostgreSQL与DWS字段类型映射 Migration会根据源端的字段类型按默认规则转换成目的端字段类型,并以此完成自动建表和实时同步。 字段类型映射规则 当源端为PostgreSQL,目的端为DWS时,支持的字段类型请参见下表,以确保数据完整同步到目的端。 表1 PostgreSQL
"connector-name": "redis-connector" } ] } 连接参数 参数 是否必选 类型 说明 linkConfig.deploymentMode 是 枚举 Redis部署方式: Single:表示单机部署。 Cluster:表示集群部署。
系统。 创建作业 数据开发 DataArts Studio数据开发是一个一站式敏捷大数据开发平台,提供可视化的图形开发界面、丰富的数据开发类型(脚本开发和作业开发)、全托管的作业调度和运维监控能力,内置行业数据处理pipeline,一键式开发,全流程可视化,支持多人在线协同开发,
"dms_kafka", "connector-name": "dms-kafka-connector" } ] } 连接参数 参数 是否必选 类型 说明 linkConfig.kafkaType 是 枚举 选择DMS Kafka版本,目前只有专享版。 Basic:指DMS Kafka普通队列。