检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
服务以您的身份访问DEW服务。 图1 DLI云服务委托 DLI委托 在使用DLI前,为了确保正常使用DLI的功能,建议先进行DLI委托权限设置。 DLI默认提供以下类型的委托:dli_admin_agency、dli_management_agency、dli_data_clea
keytab',\ 'principal' ='krbtest')") 与未开启kerberos认证相比,开启了kerberos认证需要多设置三个参数,如表1所示。 表1 参数说明 参数名称与参数值 参数说明 'krb5conf' = './krb5.conf' krb5.conf的地址。
city], speeds[1] FROM car_infos; 复杂类型嵌套 Json格式增强 以Source为例进行说明,Sink的使用方法相同。 支持配置Json_schema 配置了json_schema后,可以不声明DDL中的字段,自动从json_schema中生成。使用示例如下:
city], speeds[1] FROM car_infos; 复杂类型嵌套 Json格式增强 以Source为例进行说明,Sink的使用方法相同。 支持配置Json_schema 配置了json_schema后,可以不声明DDL中的字段,自动从json_schema中生成。使用示例如下:
nt avro的形式写入作为sink的topic中 根据kafka和ecs所在的虚拟私有云和子网创建相应的跨源,并绑定所要使用的队列。然后设置安全组,入向规则,使其对当前将要使用的队列放开,并根据kafka和ecs的地址测试队列连通性(通用队列-->找到作业的所属队列-->更多-
nt avro的形式写入作为sink的topic中 根据kafka和ecs所在的虚拟私有云和子网创建相应的跨源,并绑定所要使用的队列。然后设置安全组,入向规则,使其对当前将要使用的队列放开,并根据kafka和ecs的地址测试队列连通性(通用队列-->找到作业的所属队列-->更多-
StructField("value", DoubleType())]) 设置数据 1 dataList = sparkSession.sparkContext.parallelize([("aaa", "abc",
\"age\":\"23\"}")); Dataset<Row> dataFrame = sqlContext.read().json(javaRDD); 设置连接参数 String url = "192.168.4.62:8635,192.168.5.134:8635/test?authSource=admin";
sparkSession = SparkSession.builder.appName("datasource-mongo").getOrCreate() 设置连接参数 1 2 3 4 5 6 url = "192.168.4.62:8635,192.168.5.134:8635/test?authSource=admin"
登录DEW管理控制台 选择“凭据管理”,进入“凭据管理”页面。 单击“创建凭据”。配置凭据基本信息 DLI Spark jar作业编辑界面设置作业参数。 Spark参数: spark.hadoop.fs.obs.bucket.USER_BUCKET_NAME.dew.access
{ NULL | ERROR | DEFAULT <defaultExpr> } ON ERROR ]) 从JSON字符串中提取标量。 此方法在JSON字符串中搜索给定的路径表达式,如果该路径上的值是标量,则返回该值。如果不是标量值,则无法返回。默认情况下,该值以STRING类型
/v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:showPartitions √ × 设置表配置 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:alterTableSetProperties
cu_number 否 Integer 用户为作业选择的CU数量。默认值为“2”。 parallel_number 否 Integer 用户设置的作业并行数目。默认值为“1”。 checkpoint_enabled 否 Boolean 是否开启作业自动快照功能。 开启:true 关闭:false
创建OBS表的Hive语法可以参考使用Hive语法创建OBS表。 使用DataSource语法创建OBS表 以下通过创建CSV格式的OBS表举例,创建其他数据格式的OBS表方法类似,此处不一一列举。 创建OBS非分区表 指定OBS数据文件,创建csv格式的OBS表。 按照以下文件内容创建“test.csv”文件,并将“test
建议为streaming-source.monitor-interval(最新分区作为临时表)或 lookup.join.cache.ttl(所有分区作为临时表)设置一个相对较大的值。否则,作业容易出现性能问题,避免表更新和重新加载过于频繁。 缓存刷新需加载整个Hive表。无法区分新数据和旧数据。 参数说明
t avro的形式写入作为sink的topic中。 根据kafka和ecs所在的虚拟私有云和子网创建相应的跨源,并绑定所要使用的队列。然后设置安全组,入向规则,使其对当前将要使用的队列放开,并根据kafka和ecs的地址测试队列连通性(通用队列 > 找到作业的所属队列 > 更多 >
keytab','principal'='krbtest') "); 与未开启kerberos认证相比,开启了kerberos认证需要多设置三个参数,如表1所示。 表1 参数说明 参数名称与参数值 参数说明 'krb5conf' = './krb5.conf' krb5.conf的地址。
GROUP GROUPING GW_URL H HASH_KEY_COLUMN HAVING HIERARCHY HOLD HOUR HTTPS_PORT I IDENTITY ILLEGAL_DATA_TABLE IMMEDIATE IMPLEMENTATION IMPORT IN INCLUDING
GROUP GROUPING GW_URL H HASH_KEY_COLUMN HAVING HIERARCHY HOLD HOUR HTTPS_PORT I IDENTITY ILLEGAL_DATA_TABLE IMMEDIATE IMPLEMENTATION IMPORT IN INCLUDING
限。 更新DLI委托权限(dli_management_agency) 在DLI控制台左侧导航栏中单击“全局配置 > 服务授权”。 在委托设置页面,按需选择以下场景的权限。 单击权限卡片上的可以查看包含的详细的权限策略。 委托说明如表1所示。 表1 dli_management_agency委托包含的权限