检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用户自定义的数据输出,addSink方法可以添加Kafka等数据输出,主要实现方法为SinkFunction的invoke方法。 过滤和映射能力 表3 过滤和映射能力的相关接口 API 说明 public <R> SingleOutputStreamOperator<R> map(MapFunction<T
用户自定义的数据输出,addSink方法可以添加Kafka等数据输出,主要实现方法为SinkFunction的invoke方法。 过滤和映射能力 表3 过滤和映射能力的相关接口 API 说明 public <R> SingleOutputStreamOperator<R> map(MapFunction<T
用户自定义的数据输出,addSink方法可以添加Kafka等数据输出,主要实现方法为SinkFunction的invoke方法。 过滤和映射能力 表3 过滤和映射能力的相关接口 API 说明 public <R> SingleOutputStreamOperator<R> map(MapFunction<T
Core和Task三种类型)。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 active_master 否 Boolean 参数解释: 自定义自动化脚本是否只运行在主Master节点上。 约束限制: 不涉及 取值范围: true:自定义自动化脚本只运行在主Master节点上。
快速开发Flink应用 Flink是一个批处理和流处理结合的统一计算框架,其核心是一个提供了数据分发以及并行化计算的流数据处理引擎。它的最大亮点是流处理,是业界最顶级的开源流处理引擎。 Flink最适合的应用场景是低时延的数据处理(Data Processing)场景:高并发pi
columns 列描述,包括列名,类型和可选备注。 partitionedBy 分区列描述,用于划分表格。参数columns列出了列名,类型和可选备注。 clusteredBy 分桶列描述,参数包括columnNames、sortedBy、和numberOfBuckets。参数c
columns 列描述,包括列名,类型和可选备注。 partitionedBy 分区列描述,用于划分表格。参数columns列出了列名,类型和可选备注。 clusteredBy 分桶列描述,参数包括columnNames、sortedBy、和numberOfBuckets。参数c
columns 列描述,包括列名,类型和可选备注。 partitionedBy 分区列描述,用于划分表格。参数columns列出了列名,类型和可选备注。 clusteredBy 分桶列描述,参数包括columnNames、sortedBy、和numberOfBuckets。参数c
columns 列描述,包括列名,类型和可选备注。 partitionedBy 分区列描述,用于划分表格。参数columns列出了列名,类型和可选备注。 clusteredBy 分桶列描述,参数包括columnNames、sortedBy、和numberOfBuckets。参数c
resource_request object 以vcores和内存等形式在队列中挂起的资源请求。 resource_inuse object 以vcores和内存等形式在队列中使用的资源。 resource_reserved object 以vcores和内存等形式在队列中预留的资源。 active_state
resource_request object 以vcores和内存等形式在队列中挂起的资源请求。 resource_inuse object 以vcores和内存等形式在队列中使用的资源。 resource_reserved object 以vcores和内存等形式在队列中预留的资源。 active_state
resource_request object 以vcores和内存等形式在队列中挂起的资源请求。 resource_inuse object 以vcores和内存等形式在队列中使用的资源。 resource_reserved object 以vcores和内存等形式在队列中预留的资源。 active_state
resource_request object 以vcores和内存等形式在队列中挂起的资源请求。 resource_inuse object 以vcores和内存等形式在队列中使用的资源。 resource_reserved object 以vcores和内存等形式在队列中预留的资源。 active_state
defaults.conf”和“hive-site.xml”中的Keytab和principal的值相同。 true Python Spark Python Spark是Spark除了Scala、Java两种API之外的第三种编程语言。不同于Java和Scala都是在JVM平台上运行,Python
defaults.conf”和“hive-site.xml”中的Keytab和principal的值相同。 true Python Spark Python Spark是Spark除了Scala、Java两种API之外的第三种编程语言。不同于Java和Scala都是在JVM平台上运行,Python
columns 列描述,包括列名,类型和可选备注。 partitionedBy 分区列描述,用于划分表格。参数columns列出了列名,类型和可选备注。 clusteredBy 分桶列描述,参数包括columnNames、sortedBy、和numberOfBuckets。参数c
否 String 参数解释: Master和Core节点的磁盘存储类别,目前支持SATA、SAS、SSD和GPSSD。磁盘参数可以使用volume_type和volume_size表示,也可以使用多磁盘相关的参数表示。volume_type和volume_size这两个参数如果与多
不涉及 charge_info 否 ChargeInfo object 参数解释: 节点组的计费类型,Master和Core节点组是和集群的计费类型一致,Task节点组可以和集群的计费类型不同。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 auto_scaling_policy