检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
靠近您业务的区域,可减少网络时延,提高访问速度。 项目 每个区域默认对应一个项目,这个项目由系统预置。 名称 弹性资源池的具体名称。 名称只能包含数字、英文字母和下划线,但不能是纯数字,且不能以下划线或数字开头。 输入长度不能超过128个字符。 说明: 弹性资源池名称不区分大小写,系统会自动转换为小写。
print-identifier 否 无 String 配置一个标识符作为输出数据的前缀。 standard-error 否 false Boolean 该值只能为true或false,默认为false。 如果为true,则表示输出数据到taskmanager的error文件中。 如果为false,
填写Kafka认证信息,详细参数说明请参考表2。 表2 参数说明 参数 参数说明 类型 选择Kafka_SSL。 认证信息名称 所创建的跨源认证信息名称。 名称只能包含数字、英文字母和下划线,但不能是纯数字,且不能以下划线开头。 输入长度不能超过128个字符。 Truststore路径 上传SSL Truststore文件的OBS路径。
聚合函数但没有 GROUP BY 子句时的情况相同。查询认为所有被选中的行形成一个单一的组,并且 SELECT 列表和 HAVING 子句只能从聚合函数中引用列。如果 HAVING 条件为真,这样的查询将发出一条记录,如果不为真,则发出零条记录。 SELECT SUM(amount)
该作业的任意权限。 Flink作业权限使用说明 查看作业详情 租户以及admin用户可以查看和操作所有作业。 子用户以及拥有只读权限的用户只能查看自己的作业。 他人赋权给该子用户查看权限外的任意权限,则该作业仅显示在作业列表中,但不支持该子用户查看作业详情。 启动作业 用户需要同
tsdb-link-address' = '' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 connector的类型,只能为opentsdb。 connector.region 是 OpenTSDB服务所在的区域。 connector.tsdb-metrics
填写Kerberos认证信息,详细参数说明请参考表2。 表2 参数说明 参数 参数说明 类型 选择kerberos。 认证信息名称 所创建的跨源认证信息名称。 名称只能包含数字、英文字母和下划线,但不能是纯数字,且不能以下划线开头。 输入长度不能超过128个字符。 建议名称中包含MRS安全集群的名称,便于区分不同集群的安全认证信息。
名。当前示例为CSS集群上创建索引并导入数据中创建的索引“my_test”。 索引名称只能全部小写,不能有大写。 类型 Elasticsearch的类型,类似关系数据库中的表名称。类型名称只能全部小写,不能有大写。当前示例为:“_doc”。 更多其他参数说明可以参考:CDM配置CSS源端参数。
继续请求。 这个临时响应用来通知客户端,它的部分请求已经被服务器接收,且仍未被拒绝。 101 Switching Protocols 切换协议。只能切换到更高级的协议。 例如,切换到HTTP的新版本协议。 200 Success 服务器已成功处理了请求。通常,这表示服务器提供了请求的网页。
参数说明 参数 是否必选 说明 数据格式 是 选择导出结果的数据格式,当前支持json和csv格式。 队列 是 选择执行导出作业的队列。SQL作业只能在队列类型为“SQL队列”下执行。 压缩格式 否 导出查询结果数据的压缩方式,选择如下压缩方式。 none bzip2 deflate gzip
仅Spark作业支持使用自定义镜像。了解自定义镜像。 DLI套餐包使用约束限制 表4 DLI套餐包使用约束限制 限制项 说明 区域限制 套餐包购买后区域固定无法更换,购买的套餐只能在绑定的区域使用,不能在非绑定区域使用。 使用限制 套餐包购买后不支持退订。 计费时优先使用套餐中的资源,套餐中资源使用完后,超出部分按需付费。
示队列A与数据源C的网段冲突,无法建立新的增强型跨源连接。 解决措施:修改队列网段或重建队列。 建议创建队列时就规划好网段划分,否则冲突后只能修改队列网段或重建队列。 图3 查看连接日志-1 检查是否为DLI授权了DLI Datasource Connections Agency
配置文件或者环境变量中密文存放,使用时解密,确保安全。Flink Opensource SQL使用DEW管理访问凭据 with参数中字段只能使用单引号,不能使用双引号。 建表时数据类型的使用请参考Format章节。 认证用的username和password等硬编码到代码中或者
n”参数只能配置一个,不能同时配置。 若有多个topic,请以';'分隔,如'topic-1;topic-2'。 topic-pattern 否 无 String 匹配读取kafka topic名称的正则表达式。 注意:“topic-pattern”和“topic”只能选择一个,不可同时存在。
支持TEXTFILE, AVRO, ORC, SEQUENCEFILE, RCFILE, PARQUET 创建分区表时,指定的分区字段不能出现在表后,只能通过PARTITIONED BY指定分区字段名和类型。具体可以参考Hive语法创建OBS分区表。 单表分区数最多允许100000个。 创建
无 string Flink Kafka Connector在序列化来自Kafka的消息时使用的格式。该选项与'value.format'只能配置其中一个。 格式取值如下: csv json avro 请参考Format页面以获取更多详细信息和格式参数。 topic-pattern
获取指定字段。不同于select,col每次只能获取一个字段,返回类型为Column类型,示例如下: 1 val idCol = jdbcDF.col("id") drop 删除指定字段。传入要删除的字段,返回不包含此字段的DataFrame对象,并且每次只能删除一个字段,示例如下: 1 jdbcDF
正在运行的子作业ID,如果作业还没开始运行或者运行结束,则子作业ID可能为空。 progress 否 Double 正在运行的子作业的进度或者整个作业进度,该值只能粗略的估算子作业进度,不表示作业的详细进度。 如果整个作业刚开始运行或者在提交中,则进度展示为0;如果作业运行结束,则进度展示为1。此时p
和STRING类型一样,VARCHAR末尾的空格数是有意义的,会影响比较结果。DLI中实际存储为STRING类型。 DATE DATE类型只能和DATE、TIMESTAMP和STRING进行显式转换(cast),具体如表2所示。 表2 cast函数转换 显式转换 转换结果 cast(date
新增表所在的数据库名称。 请求消息 表2 请求参数 参数名称 是否必选 参数类型 说明 table_name 是 String 新增表名称。 表名称只能包含数字、英文字母和下划线,但不能是纯数字,且不能以下划线开头。 表名称大小写不敏感且不能为空。 表名称支持包含“$”符号。例如:$test。