检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
properties 修改如下内容: 更改“userName”的参数值为提交任务的人机用户名,例如“userName=oozieuser”。 是否是跨安全集群的DistCp。 是,执行步骤7。 否,则执行步骤9。 对两个集群进行跨Manager集群互信。 备份并且修改workflow
"actual",会出现如下图所示五个配置项,可参考表1配置具体参数。 表1 参数配置说明 配置项 描述 取值要求 enable.advertised.listener 是否开启“advertised.listeners”配置,默认值为“false”。 配置“enable.advertised.listener”参数值为“true”。
Flink基本原理 Flink简介 Flink是一个批处理和流处理结合的统一计算框架,其核心是一个提供了数据分发以及并行化计算的流数据处理引擎。它的最大亮点是流处理,是业界最顶级的开源流处理引擎。 Flink最适合的应用场景是低时延的数据处理(Data Processing)场景
请从Flink服务端安装目录获取相关的依赖包。 请从Kafka环境中获取Kafka依赖包。 具体依赖包请查看参考信息。 配置Maven。 参考配置华为开源镜像仓章节描述,增加开源镜像仓地址等配置信息到本地Maven的“setting.xml”配置文件。 修改完成后,在IntelliJ IDEA选择“File >
时需判断当前环境支持的 SSL protocols。 使用curl命令 未开启Kerberos认证集群 在未开启Kerberos认证的集群中执行curl命令时增加以下参数。例如, curl -vi -k POST -H "Accept: text/xml" -H "Content-Type: text/xml"
View会被重新安排后台线程去监测数据。 kafka_num_consumers (可选)单个Kafka Engine的消费者数量,通过增加该参数,可以提高消费数据吞吐,但总数不应超过对应topic的partitions总数。 其他配置可参考https://clickhouse
View会被重新安排后台线程去监测数据。 kafka_num_consumers (可选)单个Kafka Engine的消费者数量,通过增加该参数,可以提高消费数据吞吐,但总数不应超过对应topic的partitions总数。 其他配置可参考:https://clickhouse
Scala样例代码 功能介绍 在Spark应用中,通过使用Streaming调用kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数,或将数据写入Kafka0-10。 Streaming读取Kafka0-10代码样例 下面代码片段仅为演示,具体代码参见:com
MRS集群数据备份恢复简介 MRS集群数据备份恢复概述 Manager提供对集群内的用户数据及系统数据的备份恢复能力,备份功能按组件提供。系统支持备份Manager的数据、组件元数据及业务数据。 MRS 3.x及之后版本,备份功能支持将数据备份至本地磁盘(LocalDir)、本端
ace下随机选择一个实例连接,详细URL参见URL连接介绍。 客户端成功连接ProxyServer服务,ProxyServer服务首先确认是否有该租户的JDBCServer存在,如果有,直接将Beeline连上真正的JDBCServer;如果没有,则以YARN-Cluster模式
子网名称和ID。如果VPC下未创建子网,请单击“创建子网”进行创建。 集群节点 保持默认 配置集群节点信息。 Kerberos认证 开启 是否启用Kerberos认证。 用户名 admin/root 登录集群管理页面及ECS节点的用户名。 密码 - 设置登录集群管理页面及ECS节点用户的密码。
ite.xml”中配置“mapreduce.job.maps”项。 说明: 指定的InputFormat类用来控制map任务个数,注意该类是否支持客户端设定map个数。 setNumReduceTasks(int n) 核心接口,指定MapReduce作业的reduce个数。默认
执行写操作,而可以被多个调用者执行读操作。 HDFS文件系统中目录结构如下表所示。 表1 HDFS文件系统目录结构 路径 类型 简略功能 是否可以删除 删除的后果 /tmp/spark2x/sparkhive-scratch 固定目录 存放Spark2x JDBCServer中metastore
数据库专用连接器,使用row_id作为分区列,相对generic-jdbc-connector来说,Map任务分区更均匀,并且不依赖分区列是否有创建索引。 mysql-fastpath-connector:MYSQL数据库专用连接器,使用MYSQL的mysqldump和mysql
通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。 subnet-01 Kerberos认证 当集群开启Kerberos认证时,需要确认是否需要开启Kerberos认证,若确认开启请单击“继续”,若无需开启Kerberos认证请单击“返回”关闭Kerberos认证后再创建集群。购买集群后,不支持修改。
服务获权并判断:当接收到客户端的DDL、DML的SQL命令时,SparkSQL服务会向MetaStore服务获取客户端用户对数据库信息的已有权限,并检查是否包含了所需的所有权限,如果是则继续执行,否则拒绝该用户的操作。当通过了MetaStore的权限检查后,还需进行HDFS的ACLs权限检查。
job.jobId 需要执行数据备份的作业ID。 作业ID可通过登录Loader webUI在已创建的作业查看。 1 use.keytab 是否使用keytab方式登录。 true,表示使用keytab文件登录 false,表示使用密码登录。 true client.principal
两个副本replica,每个副本replica对应了一个ClickHouse实例节点。 internal_replication表示副本间是否为内部复制,当通过集群向分片插入数据时会起作用。 默认配置为true,表示只向其中的一个副本写入数据(副本间通过复制表来完成同步,能保证数据的一致性)。
ite.xml”中配置“mapreduce.job.maps”项。 说明: 指定的InputFormat类用来控制map任务个数,注意该类是否支持客户端设定map个数。 setNumReduceTasks(int n) 核心接口,指定MapReduce作业的reduce个数。默认
件或部分组件客户端包作为输入。 批量刷新hosts文件 执行批量升级前准备操作。 检查需要更新“/etc/hosts”文件的节点的配置用户是否为“root”。 是,执行3。 否,更改配置用户为“root”,再执行3。 执行以下命令,批量刷新客户端所在节点的“/etc/hosts”文件。