检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
创建弹性伸缩策略 功能介绍 创建弹性伸缩策略。 调用方法 请参见如何调用API。 URI POST /v2/{project_id}/autoscaling-policy/{cluster_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String
return flag; } 多次重复登录会导致后建立的会话对象覆盖掉之前登录建立的,将会导致之前建立的会话无法被维护监控,最终导致会话超期后部分功能不可用。 父主题: HDFS应用开发规范
例如“分隔转换”步骤中,生成的字段个数小于配置字段的个数,或者原数据不能转换为String类型,当前行成为脏数据。 “过滤行转换”步骤中,被筛选条件过滤的行成为脏数据。 “取模转换”步骤中,原字段值为“NULL”,当前行成为脏数据。 单击“下一步”。 在“4.输出设置”,设置数据
String hostname,int port) 创建一个输入流,通过TCP socket从对应的hostname和端口接收数据。接受的字节被解析为UTF8格式。默认的存储级别为Memory+Disk。 JavaDStream<java.lang.String> textFileStream(java
String hostname,int port) 创建一个输入流,通过TCP socket从对应的hostname和端口接受数据。接受的字节被解析为UTF8格式。默认的存储级别为Memory+Disk。 JavaDStream<java.lang.String> textFileStream(java
run(ZkEventThread.java:71) 通过异常信息,发现当前Consumer没有在指定的重试次数内完成Rebalance,使得Consumer没有被分配Kafka Topic-Partition,则无法消费消息。 解决方法参考3。 查看Consumer相关日志,发现打印Fetching topic
例如“分隔转换”步骤中,生成的字段个数小于配置字段的个数,或者原数据不能转换为String类型,当前行成为脏数据。 “过滤行转换”步骤中,被筛选条件过滤的行成为脏数据。 “取模转换”步骤中,原字段值为“NULL”,当前行成为脏数据。 单击“下一步”。 在“4.输出设置”,设置数据
Hive服务进程非堆内存使用超出阈值 ALM-16009 Map数超过阈值 ALM-16045 Hive数据仓库被删除 ALM-16046 Hive数据仓库权限被修改 ALM-16047 HiveServer已从Zookeeper注销 ALM-16048 Tez或者Spark库路径不存在 ALM-16051
"\特殊字符,可为空。 说明: 用户输入带有敏感信息(如登录密码)的参数时,可通过在参数名前添加“@”的方式,为该参数值加密,以防止敏感信息被明文形式持久化。在查看作业信息时,敏感信息显示为“*”。 例如:username=xxx @password=yyy 默认取值: 不涉及 hql
策略的插件,它负责将集群资源分配给多个队列和应用程序。调度插件可以基于现有的能力调度和公平调度模型。 Kafka分区 每一个Topic可以被分为多个Partition,每个Partition对应一个可持续追加的有序且不可变的log文件。 跟随者 跟随者(Follower)负责处理
true(默认值):开启Join下推。 false:关闭Join下推。 true join-pushdown.strategy 用于评估Join操作是否被下推的策略。默认值:AUTOMATIC AUTOMATIC(默认值):启用基于成本的连接下推。 EAGER:尽可能下推Join。即使表统计信息不可用,
SummingMergeTree 当合并SummingMergeTree表的数据片段时,ClickHouse会把所有具有相同主键的行合并为一行,该行包含了被合并的行中具有数值数据类型的列的汇总值。如果主键的组合方式使得单个键值对应于大量的行,则可以显著地减少存储空间并加快数据查询的速度。 建表语法:
断空值。 不建议将含有Strcuct、Map和Seq三种复杂类型的表数据直接同步到HBase表中,这些类型无法直接转换为byte数组,会先被转为String,再存储到HBase中,可能会导致无法还原数据。 该章节内容仅适用于MRS 3.5.0及之后版本。 表1 数据类型转换对应关系
将“主机IP”设置为ECS的IP地址,设置“主机端口”为“22”,并将“存放路径”设置为“/tmp”。 如果使用SSH登录ECS的默认端口“22”被修改,请将“主机端口”设置为新端口。 “存放路径”最多可以包含256个字符。 “登录用户”设置为“root”。 如果使用其他用户,请确保该用户对保存目录拥有读取、写入和执行权限。
也可能会被清除。 例如,对象存储(支持S3协议)中,通过rename操作将一个目录中的最后一个文件移走后,该目录也会被删除。如果该目录没有被清除,可以手动清除。 当Export运行完成后(成功或失败),FE发生重启或主备倒换,则SHOW EXPORT展示的作业的部分信息会丢失,无法查看。
将“主机IP”设置为待安装客户端节点的IP地址,设置“主机端口”为“22”,并将“存放路径”设置为“/tmp”。 如果节点的SSH登录默认端口被修改,请将“主机端口”设置为新端口。 “登录用户”设置为“root”。 如果使用其他用户,请确保该用户对保存目录拥有读取、写入和执行权限。
配置弹性伸缩规则 功能介绍 对弹性伸缩规则进行编辑。 在创建集群并执行作业接口中也可以创建弹性伸缩规则。 接口约束 无 调用方法 请参见如何调用API。 URI POST /v1.1/{project_id}/autoscaling-policy/{cluster_id} 表1 路径参数
从高到低依次为:本地资源的申请、同机架的申请,任意机器的申请。 图2 资源分配模型 YARN原理 新的Hadoop MapReduce框架被命名为MRv2或YARN。YARN主要包括ResourceManager、ApplicationMaster与NodeManager三个部分。
constructorArgs: - "output" #构造函数入参使用引用,使用`ref`标志来说明引用 #在使用引用时请确保被引用对象在前面定义 - id: "stringMultiScheme" className: "org.apache.storm.spout
一个用于缩放、并行化和容错性的分区(Partition)。每个分区是一个有序、不可变的消息序列,并不断追加到提交日志文件。分区的消息每个也被赋值一个称为偏移顺序(Offset)的序列化编号。 图1 Kafka结构 操作流程 本实践操作流程如下所示: 步骤1:创建MRS集群:创建一个包含有Kafka组件的MRS集群。