检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
登录FusionInsight Manager页面,选择“集群 > 概览 > 更多 > 下载客户端”(MRS 3.3.0及之后版本集群请在“主页”右上方单击“下载客户端”),“选择客户端类型”设置为“完整客户端”,根据待安装客户端节点的节点类型选择正确的平台类型后(x86选择x86
登录FusionInsight Manager页面,选择“集群 > 概览 > 更多 > 下载客户端”(MRS 3.3.0及之后版本集群请在“主页”右上方单击“下载客户端”),“选择客户端类型”设置为“完整客户端”,根据待安装客户端节点的节点类型选择正确的平台类型后(x86选择x86
", "finishTime" : "", "duration" : "1 minute 50 seconds", "totalExecute" : 1 } ], "sqls" : [ { "user" : "spark", "jobId
source bigdata_env 如果集群为安全模式,执行以下命令进行用户认证。普通模式集群无需执行用户认证。 kinit 组件业务用户 执行以下命令,获取Flink集群container信息。
source bigdata_env 如果集群为安全模式,执行以下命令进行用户认证。普通模式集群无需执行用户认证。 kinit 组件业务用户 执行以下命令,获取Flink集群container信息。
source bigdata_env 认证或指定用户。 安全模式集群:执行以下命令认证用户 kinit HetuEngine组件操作用户 例如: kinit hetu_test 根据提示输入用户密码,首次登录需重置密码。
示例:\p{NoncharacterCodePoint} 函数 regexp_count(string, pattern) → bigint 描述:返回字符串中pattern匹配的次数。
cd 客户端安装目录 source bigdata_env kinit 归属于supergroup用户组或具备Global的Admin权限的用户(集群未启用Kerberos认证(普通模式)请跳过该操作) 执行以下命令打开HBase负载均衡功能,并确认是否成功打开。
cd 客户端安装目录 source bigdata_env kinit 归属于supergroup用户组或具备Global的Admin权限的用户(集群未启用Kerberos认证(普通模式)请跳过该操作) 执行以下命令打开负载均衡功能,并查看是否成功打开。
请使用符合该集群版本的协议 400 12000087 Failed to get billing records. 获取话单文件失败。
登录安装了Kafka客户端的节点,执行以下操作创建Kafka Topic: cd 客户端安装目录/Kafka/kafka/bin 执行以下命令创建Kafka Topic,且Topic名称需与6.a配置的Topic名称保持一致。
登录FusionInsight Manager页面,选择“集群 > 概览 > 更多 > 下载客户端”,“选择客户端类型”设置为“完整客户端”,根据待安装客户端节点的节点类型选择正确的平台类型后(x86选择x86_64,ARM选择aarch64)单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压
图4 主机资源概况 基础配置(CPU/内存) 鼠标放置饼图上会显示当前区域集群中各节点不同硬件配置下的配置信息及数量,格式为:核数(平台类型)内存大小:数量。 单击相应区域,会在下方显示相应的主机列表。
clean.async.enabled' = 'false' -- 关闭Clean操作 'hoodie.archive.automatic' = 'false' -- 关闭Archive操作 Spark离线完成Compaction计划的执行,以及Clean和Archive操作 在调度平台
以root用户登录Kafka客户端节点,在客户端安装目录下配置Topic名称为test的可靠性参数命令: cd Kafka/kafka/bin kafka-topics.sh --zookeeper 192.168.1.205:2181/kafka --alter --topic
source bigdata_env 如果集群为安全模式,执行以下命令进行用户认证。普通模式集群无需执行用户认证。 kinit 组件业务用户 执行以下命令,获取Flink集群container信息。
代码样例 完整样例代码可参考com.huawei.bigdata.hdfs.examples.ColocationExample。 在运行Colocation工程时,需要将HDFS用户绑定supergroup用户组。
通过cd /var/log/Bigdata/kafka/broker命令进入RunningAsController节点日志目录,在controller.log发现ineligible for deletion: test。
cd /srv/pyflink-example virtualenv venv --python=python3.x source venv/bin/activate 执行以下命令将客户端安装目录下的“Flink/flink/opt/python/apache-flink-*.tar.gz
Yarn ResourceManager长时间运行后发现大量ContainerIdPBImpl对象占用内存,可能是内存泄漏。 HDFS客户端leaserenewer线程泄漏。 HDFS重启后权限属性丢失,导致数据无法读取。 备NameNnode处于安全模式,但集群没有上报告警。