检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
一行记录,然后写到file中。 saveAsSequenceFile(path, compressionCodecClass=None) 只能用在key-value对上,然后生成SequenceFile写到本地或者hadoop文件系统。 countByKey() 对每个key出现的次数做统计。
群中已有的角色、HDFS目录或者Yarn队列重名。 租户资源类型 选择“叶子租户资源” 说明: 创建ClickHouse租户,租户资源类型只能选择“叶子租户”。 计算资源 为当前租户选择动态计算资源。 选择“Yarn”时,系统自动在Yarn中以租户名称创建任务队列。 不选择“Yarn”时,系统不会自动创建任务队列。
nct count等。 某些操作无法在任务级上处理,例如Having Clause(分组后的过滤),sort等。这些无法在任务级上处理,或只能在任务级上部分处理的操作需要在集群内跨执行器来传输数据(部分结果)。这个传送操作被称为shuffle。 任务数量越多,需要shuffle的数据就越多,会对查询性能产生不利影响。
sasl.disable: false 具体配置项介绍请参考HA。 Web安全 Flink Web安全加固,支持白名单过滤,Flink Web只能通过YARN代理访问,支持安全头域增强。在Flink集群中,各部件的监测端口支持范围可配置。 编码规范: 说明:Web Service客户
installed successfully 客户端安装目录可以不存在,会自动创建。但如果存在,则必须为空,目录路径不能包含空格。且客户端安装目录路径只能包含大写字母、小写字母、数字以及_字符。 卸载客户端请手动删除客户端安装目录。 如果要求安装后的客户端仅能被该安装用户使用,请在安装时加“-o”参数,例如执行
一行记录,然后写到file中。 saveAsSequenceFile(path, compressionCodecClass=None) 只能用在key-value对上,然后生成SequenceFile写到本地或者hadoop文件系统。 countByKey() 对每个key出现的次数做统计。
“作业类型”选择“MapReduce”,并配置其他作业信息。 图1 添加MapReduce作业 表1 作业配置信息 参数 描述 示例 作业名称 作业名称,只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。 mapreduce_job 执行程序路径 待执行程序包地址,可直接手动输入地
Table-Generating Functions),用于操作单个输入行,产生多个输出行。 按使用方法,UDF有如下分类: 临时函数,只能在当前会话使用,重启会话后需要重新创建。 永久函数,可以在多个会话中使用,不需要每次创建。 用户自定义函数需要用户控制函数中变量的内存、线
单个表的消费者数量。默认值是:1,如果一个消费者的吞吐量不足,则指定更多的消费者。消费者的总数不应该超过topic中分区的数量,因为每个分区只能分配一个消费者。 Kafka数据同步至ClickHouse操作示例 参考Kafka客户端使用实践,切换到Kafka客户端安装目录。 以Ka
h: String, codec: Option[Class[_ <: CompressionCodec]] = None): Unit 只能用在key-value对上,然后生成SequenceFile写到本地或者hadoop文件系统。 countByKey(): Map[K, Long]
h: String, codec: Option[Class[_ <: CompressionCodec]] = None): Unit 只能用在key-value对上,然后生成SequenceFile写到本地或者hadoop文件系统。 countByKey(): Map[K, Long]
“作业类型”选择“SparkSql”并参考表1配置SparkSql作业信息。 图1 添加SparkSql作业 表1 作业配置信息 参数 描述 示例 作业名称 作业名称,只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。 sparksql SQL类型 SQL查询语句提交类型。 SQL:直接运行手动输入的SQL语句。
h: String, codec: Option[Class[_ <: CompressionCodec]] = None): Unit 只能用在key-value对上,然后生成SequenceFile写到本地或者hadoop文件系统。 countByKey(): Map[K, Long]
h: String, codec: Option[Class[_ <: CompressionCodec]] = None): Unit 只能用在key-value对上,然后生成SequenceFile写到本地或者hadoop文件系统。 countByKey(): Map[K, Long]
在“数据连接”页面显示集群已关联的数据连接,单击“解绑”可对已关联的数据连接进行删除。 若“数据连接”页面没有关联连接,单击“配置数据连接”进行增加。 一种模块类型只能配置一个数据连接,如在Hive元数据上配置了数据连接后,不能再配置其他的数据连接。当没有可用的模块类型时,“配置数据连接”按钮不可用。 表2
选择此参数值,还需要配置“最大备份数”,表示备份目录中可保留的备份文件集数量。 RemoteHDFS 表示将备份文件保存在备集群的HDFS目录。只能保留最新的一份备份文件,历史备份文件将被覆盖。 MRS 3.1.0和MRS 3.1.2版本选择此参数值,需要参考创建ClickHouse备
fs”包中,这些API能够支持的操作包含:打开文件,读写文件,删除文件等。Hadoop类库中最终面向用户提供的接口类是FileSystem,该类是个抽象类,只能通过来类的get方法得到具体类。get方法存在几个重载版本,常用的是这个: static FileSystem get(Configuration
取值范围: 只能由英文字母和数字组成,且长度为[1-64]个字符。 默认取值: 不涉及 cluster_id 是 String 参数解释: 集群ID。如果指定集群ID,则获取该集群做过补丁更新的最新版本元数据。获取方法,请参见获取集群ID。 约束限制: 不涉及 取值范围: 只能由英文字
is installed successfully 客户端安装目录可以不存在,系统会自动创建,如果存在则必须为空。安装目录路径不能包含空格,且只能包含大写字母、小写字母、数字以及_字符。 卸载客户端请手动删除客户端安装目录。 如果要求安装后的客户端仅能被当前安装用户使用,可在安装时添加“-o”参数,例如执行
参数类型 描述 project_id 是 String 参数解释: 项目编号。获取方法,请参见获取项目ID。 约束限制: 不涉及 取值范围: 只能由英文字母和数字组成,且长度为[1-64]个字符。 默认取值: 不涉及 请求参数 表2 请求Body参数 参数 是否必选 参数类型 描述 data_connector