检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
channel = "dis-input", partition_count = "1", encode = "json", offset = "13", json_config = "cast_int_to_varchar=cast_int_to_varchar;cast
channel = "dis-input", partition_count = "1", encode = "json", offset = "13", json_config = "cast_int_to_varchar=cast_int_to_varchar;cast
kafka_bootstrap_servers = "", kafka_topic = "", encode = "json" ) 关键字 表1 关键字说明 参数 是否必选 说明 type 是 输出通道类型,"kafka"表示输出到Kafka中。 kafka_bootstrap_servers
类型至 int96。 Decimal:根据精度,映射 decimal 类型至固定长度字节的数组。 下表列举了 Flink 中的数据类型与 JSON 中的数据类型的映射关系。 注意:复合数据类型暂只支持写不支持读(Array、Map 与 Row)。 表2 数据类型映射 Flink数据类型
async:异步 sync:同步 请求示例 将SQL语句的查询结果导出到OBS中以json格式存储。 { "data_path": "obs://obs-bucket1/path", "data_type": "json", "compress": "gzip", "with_column_header":
kafka_bootstrap_servers = "", kafka_topic = "", encode = "json" ) 关键字 表1 关键字说明 参数 是否必选 说明 type 是 输出通道类型,"kafka"表示输出到Kafka中。 kaf
kafka_bootstrap_servers = "", kafka_topic = "", encode = "json" ) 关键字 表1 关键字说明 参数 是否必选 说明 type 是 输出通道类型,"kafka"表示输出到Kafka中。 kafka_bootstrap_servers
format' = 'json', 'key.json.ignore-parse-errors' = 'true', 'key.fields' = 'user_id;item_id', 'value.format' = 'json', 'value.json.fail-on-missing-field'
'KafkaAddress1:KafkaPort,KafkAddress2:KafkaPort', 'key.format' = 'json', 'value.format' = 'json' ); insert into UPSERTKAFKASINK select * from orders;
kafka_bootstrap_servers = "", kafka_topic = "", encode = "json" ) 关键字 表1 关键字说明 参数 是否必选 说明 type 是 输出通道类型,"kafka"表示输出到Kafka中。 kaf
SQLContext(javaSparkContext); // // Read json file as DataFrame, read csv / parquet file, same as json file distribution // DataFrame dataFrame
'KafkaAddress1:KafkaPort,KafkAddress2:KafkaPort', 'key.format' = 'json', 'value.format' = 'json' ); insert into UPSERTKAFKASINK select * from orders;
data_path 是 String 导入或导出的文件路径。 data_type 是 String 导入或导出的数据类型(当前支持csv和json格式)。 database_name 是 String 导入或导出表所属的数据库名称。 table_name 是 String 导入或导出表的名称。
'connector.document-type' = '', 'update-mode' = '', 'format.type' = 'json' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 connector的类型,对于elastic
'connector.document-type' = '', 'update-mode' = '', 'format.type' = 'json' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 connector的类型,对于elastic
= 'GroupId', 'scan.startup.mode' = 'latest-offset', "format" = "json" ); CREATE TABLE printSink ( `topic` String, `partition` int,
= 'GroupId', 'scan.startup.mode' = 'latest-offset', "format" = "json" ); CREATE TABLE printSink ( `topic` String, `partition` int,
Y Y Y Y Y Y(8) \ CHAR N N N N N N N N Y VARBINARY N N N N N N N N N JSON N N N N N N N N Y DATE N N N N N N N N Y TIME N N N N N N N N Y TIME
X-Auth-Token 是 从IAM服务获取的用户Token。 Accept 是 默认值application/json。 Content-Type 是 指定类型为application/json。 charset 是 指定编码格式为utf8。 请求参数如表3所示。 表3 请求参数说明 参数 是否必选
region' = 'xxxxx', 'connector.channel' = 'dis-input', 'format.type' = 'json' ); /** sink **/ CREATE TABLE cars_infos_out (cast_int_to_string string