检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何获取AK/SK? 访问密钥即AK/SK(Access Key ID/Secret Access Key),表示一组密钥对,用于验证调用API发起请求的访问者身份,与密码的功能相似。用户通过调用API接口进行云资源管理(如创建集群)时,需要使用成对的AK/SK进行加密签名,确保请
ak=ak, sk=sk) return dli_client 参数说明与获取方式 参数说明 ak:账号 Access Key sk:账号 Secret Access Key 认证用的ak和sk硬编码到代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放
'DROP' 将丢弃 Map 中 key 值为空的数据项。 Option 'LITERAL' 将使用字符串常量来替换 Map 中的空 key 值。字符串常量的值由 'json.map-null-key.literal' 定义。 json.map-null-key.literal 否 'null'
partition_col_value, ...); 说明 表的分区列表,以key=value的形式表现,key为partition_col_name ,value为partition_col_value ,若存在多个分区字段,每组key=value之间用逗号分隔。 父主题: 标示符
partition_col_value, ...); 说明 表的分区列表,以key=value的形式表现,key为partition_col_name ,value为partition_col_value ,若存在多个分区字段,每组key=value之间用逗号分隔。 父主题: 标示符
SH类型需要指定hash_key_column作为二层主键,集合类型将用逗号拼接所有查询出来的值 * key_column:维表主键对应的列名 * hash_key_column:当redis的键值对应值类型为HASH时,HASHMAP的KEY对应的列名,当值类型非HASH时,无需指定改配置
SH类型需要指定hash_key_column作为二层主键,集合类型将用逗号拼接所有查询出来的值 * key_column:维表主键对应的列名 * hash_key_column:当redis的键值对应值类型为HASH时,HASHMAP的KEY对应的列名,当值类型非HASH时,无需指定改配置
以使用AK/SK(Access Key ID/Secret Access Key)或Token两种认证方式初始化客户端,示例代码如下: 前提条件 已参考Java SDK概述配置Java SDK环境。 已参考初始化DLI客户端完成客户端DLIClient的初始化。 AK/SK认证方式样例代码
存在一些配置不支持配置,如'key.deserializer'和'value.deserializer'。 key.format 否 无 String 序列化和反序列化Kafka消息key的格式。 注意: 若配置了该参数,则'key.fields'也需要配置,否则kafka的记录中key会为空。 取值如下:
存在一些配置不支持配置,如'key.deserializer'和'value.deserializer'。 key.format 否 无 String 序列化和反序列化Kafka消息key的格式。 注意: 若配置了该参数,则'key.fields'也需要配置,否则kafka的记录中key会为空。 取值如下:
请求示例 { "tags":[ { "key":"key1" }, { "key":"key2", "value":"value2" }
关于Kafka消息的消息键和消息体请参考消息键(Key)与消息体(Value)的格式。 请参考Format页面以获取更多详细信息和格式参数。 key.format 否 无 String 用来序列化和反序列化 Kafka 消息键(Key)的格式。 如果定义了键格式,则配置项 'key.fields' 也是必需的。
和格式参数。 key.format 否 无 String 序列化和反序列化Kafka消息的key的格式。 注意: 若配置了该参数,则'key.fields'也需要配置,否则kafka的记录中key会为空。 请参考Format页面以获取更多详细信息和格式参数。 key.fields
和格式参数。 key.format 否 无 String 序列化和反序列化Kafka消息的key的格式。 注意: 若配置了该参数,则'key.fields'也需要配置,否则kafka的记录中key会为空。 请参考Format页面以获取更多详细信息和格式参数。 key.fields
Flink 操作(读取、插入、修改、删除) Doris 中存储的数据。详情可参考Flink Doris Connector 只能对Unique Key模型的表进行修改和删除操作。 表1 支持类别 类别 详情 支持表类型 源表、维表、结果表 父主题: Doris
sink可以在initializeState里引入。 图2 获取kafka sink 操作步骤 从Kafka实例的基本信息页面下载SSL证书,解压后将其中的clinet.jks文件上传到OBS。 图3 下载SSL证书 在DLI控制台,打开“数据管理 > 程序包管理”,单击“创建”,创建clinet.jks对应的程序包。
CATALOG catalog_name WITH (key1=val1, key2=val2, ...) 语法说明 WITH OPTIONS catalog属性一般用于存储关于这个catalog额外的信息。 表达式 key1=val1 中的键和值都是字符串文本常量。 父主题: DDL语法定义
Opensource SQL使用DEW管理访问凭据。 Flink Jar 作业使用固定AKSK访问OBS、Flink Jar 获取委托的临时AKSK、Flink SQL UDF 获取委托的临时AKSK场景。请参考Flink作业委托场景开发指导。 Flink 1.15 Jar 读取用户自定义配置文件的方式相比Flink
dis,其中key为:${table-name}:${ext-key},field名为列名。 说明: table存储模式:将connector.table-name、connector.key-column作为redis的key。redis的hash类型,每个key对应一个has
使用跨源密码认证时配置为“true”。 table 对应Redis中的Key或Hash Key。 插入redis数据时必填。 查询redis数据时与“keys.pattern”参数二选一。 keys.pattern 使用正则表达式匹配多个Key或Hash Key。该参数仅用于查询时使用。查询redis数据时与“table”参数二选一。