检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ent/kerberos/var/krb5kdc/krb5.conf,copy覆盖集群内所有节点的/etc/krb5.conf,注意替换前需要备份。 父主题: Spark Core
count命令不支持条件统计,仅支持全表统计。 获取HBase replication指标的命令 通过Shell命令“status”可以获取到所有需要的指标。 查看replication source指标的命令。 hbase(main):019:0> status 'replication'
bytes =977 KB。 解决办法 与用户确认,当前Flume发送数据确实存在超过1M的消息。因此,为了确保当前这些消息能够写入Kafka,需要调整Kafka服务端相关参数。 修改message.max.bytes,使得message.max.bytes的值大于当前业务中消息最大值
0版本集群,当用户名超过20位时(添加用户时最长限制为32位),下载Keytab文件会下载失败,状态代码:400 Bad Request。 原因分析 需要在主Master节点的“/opt/Bigdata/om-server_*/apache-tomcat-*/webapps/web/WEB-
认证用户名为访问IoTDB的用户名。 认证用户密码为访问IoTDB的用户密码。 /** * 安全模式下,“SSL_ENABLE”默认为“true”,需要导入truststore.jks文件。 * 安全模式下,也可登录FusionInsight Manager,选择“集群 > 服务 > IoTDB
点的Linux命令行操作界面。 SSH登录:仅适用于Linux弹性云服务器,您可以使用远程登录工具(例如PuTTY)登录弹性云服务器,此时需要该弹性云服务器绑定弹性IP地址。 集群节点申请和绑定弹性IP,请参见申请EIP并绑定至ECS。 可以使用密钥方式也可以使用密码方式登录Li
执行以下命令查看Flume用户证书的生效时间与失效时间。 openssl x509 -noout -text -in flume_sChat.crt 根据需要,选择业务空闲期,执行6~7更新证书。 执行以下命令进入Flume脚本目录。 cd ${BIGDATA_HOME}/FusionInsig
f 执行命令查看用户证书的生效时间与失效时间。 openssl x509 -noout -text -in ms_sChat.crt 根据需要,选择业务空闲期,执行6~7更新证书。 执行以下命令进入Flume脚本目录。 cd ${BIGDATA_HOME}/FusionInsig
产生告警的用户名称。 对系统的影响 Flink作业CheckPoint完成时间超过阈值,此时有CheckPoint超时并导致CheckPoint失败的风险,需要用户介入来确认原因,是Flink作业级别的告警,对FlinkServer本身无影响。 可能原因 Flink作业CheckPoint完成时间
提交到常驻Flink集群上的一个示例如下: bin/flink run ../examples/streaming/WindowJoin.jar 用户在用该命令提交任务前需要先用yarn-session启动Flink集群。 以yarn-cluster模式运行作业的一个示例如下: bin/flink run -m
提交到常驻Flink集群上的一个示例如下: bin/flink run ../examples/streaming/WindowJoin.jar 用户在用该命令提交任务前需要先用yarn-session启动Flink集群。 以yarn-cluster模式运行作业的一个示例如下: bin/flink run -m
from external model > Maven”,继续单击“Next”,直到“Finish”。 样例代码为Maven工程,可以根据实际需要进行工程配置调整。不同版本IntelliJ IDEA操作略有不同,请以软件界面实际界面提示为准。 将工程中的“src”、“conf”目录添加到源文件路径。
提交到常驻Flink集群上的一个示例如下: bin/flink run ../examples/streaming/WindowJoin.jar 用户在用该命令提交任务前需要先用yarn-session启动Flink集群。 以yarn-cluster模式运行作业的一个示例如下: bin/flink run -m
count命令不支持条件统计,仅支持全表统计。 获取HBase replication指标的命令 通过Shell命令“status”可以获取到所有需要的指标。 查看replication source指标的命令。 hbase(main):019:0> status 'replication'
Kerberos协议中,每个用户对象即一个principal。一个完整的用户对象包含两个部分信息:用户名和域名。在运维管理或应用开发的场景中,需要在客户端认证用户身份后才能连接到集群服务端。系统操作运维与业务场景中主要使用的用户分为“人机”用户和“机机”用户。二者主要区别在于“机机”用户密码由系统随机生成。
在FusionInsight Manager首页,选择“集群 > 服务 > Hive > 更多 > 采集堆栈”,在采集堆栈界面配置以下参数: 需要采集的角色勾选“HiveServer”。 选择采集的内容勾选“jstack”和“使能jstack和jmap -histo连续采集”。 采集
female,50 GuoYijun,male,50 CaiXuyu,female,50 FangBo,female,60 数据规划 首先需要把原日志文件放置在HDFS系统里。 本地新建两个文本文件,将log1.txt中的内容复制保存到input_data1.txt,将log2.
告警节点IP地址:根据告警定位信息中的HostName字段值,在MRS集群详情页的“节点管理”界面查询对应的IP地址,管理平面和业务平面IP都需要检查。 -c参数:检查次数,默认100次。 是,执行11。 否,执行2。 检查系统环境 使用PuTTY工具,以omm用户登录主OMS节点或者告警所在节点。
您可以在命令行运行模式中运行help命令获取HBase的命令参数的帮助信息。 获取HBase replication指标的命令 通过Shell命令“status”可以获取到所有需要的指标。 查看replication source指标的命令。 hbase(main):019:0> status 'replication'
female,50 GuoYijun,male,50 CaiXuyu,female,50 FangBo,female,60 数据规划 首先需要把原日志文件放置在HDFS系统里。 本地新建两个文本文件input_data1.txt和input_data2.txt,将log1.txt