检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
产生告警的角色名称。 主机名 产生告警的主机名。 磁盘名 产生告警的磁盘名。 对系统的影响 系统性能下降,慢盘会导致系统I/O性能下降,从而影响系统的响应速度和吞吐量。这可能会导致客户的业务运行变慢(例如:作业提交运行变慢、页面响应迟钝、接口响应超时等),甚至出现崩溃或错误。 系统故障:慢盘故障可能
WriteIntoKafka /opt/hadoopclient/FlinkStreamSqlJoinExample.jar --topic topic-test --bootstrap.servers xxx.xxx.xxx.xxx:9092 在集群内任一节点启动netcat命令,等待应用程序连接。
安全加固后是否启用:是 dfs.namenode.http.port 9870 25002 HDFS HTTP端口(NameNode)。 该端口用于: 点对点的NameNode检查点操作。 远程Web客户端连接NameNode UI。 说明: 端口的取值范围为一个建议值,由产品自己指定。在代码中未做端口范围限制。
配置Hive插入数据到不存在的目录中 配置创建Hive内部表时不能指定Location 配置用户在具有读和执行权限的目录中创建外表 配置基于HTTPS/HTTP协议的REST接口 配置Hive Transform功能开关 切换Hive执行引擎为Tez Hive负载均衡 配置Hive单表动态视图的访问控制权限 配置创
FAILED: SemanticException [Error 10011]: Line 1:7 Invalid function 'test_udf' (state=42000,code=10011) 在多个HiveServer之间使用UDF也存在上述问题。例如,在HiveS
组件的数据恢复。同时恢复多个组件数据,可能导致数据恢复失败。 HBase元数据不能与NameNode元数据同时恢复,会导致数据恢复失败。 对系统的影响 元数据恢复前,需要停止HBase服务,在这期间所有上层应用都会受到影响,无法正常工作。 元数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。
参数名称 参数含义 来源 产生告警的集群或系统名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 NodeAgent代理进程异常,无法上报心跳至平台。如果因为网络、硬件故障或ssh互信造成,则组件业务无法保证正常。 可能原因
bigdata_env kinit test(test为6创建的用户名,如果该用户首次登录,需修改初始密码) hdfs dfs -mkdir -p /user/example hdfs dfs -mkdir -p /user/example/input 6创建的test用户仅具有“/user”
install ntp -y命令自行安装。 需要允许用户使用密码方式登录Linux弹性云服务器(SSH方式)。 MRS集群安全组入方向将所有端口对客户端节点放开,具体操作请参考添加安全组规则。 集群内节点安装客户端 获取软件包。 访问集群Manager,在“集群”下拉列表中单击需要操作的集群名称。
sparkPlan.collect { case scan: CarbonDataSourceScan if scan.rdd.isInstanceOf[CarbonScanRDD[InternalRow]] => scan.rdd case scan: RowDataSourceScanExec
注册jar选择为“指定路径”时,需通过该项输入依赖文件的HDFS路径(需提前准备好jar包上传至HDFS)。 /flink_upload_test/flink-connector-kafka-customization.jar 描述信息 添加的依赖的描述信息。 - 单击“确定”。 使用示例
例如,以下SQL示例即为自读自写: insert overwrite table test select * from test; insert overwrite table test select a.* from test a join test2 b on a.name=b.name; 集群及组件高危操作(禁止)
Timestamp.valueOf(splitStr(1))) }.as[(String, Timestamp)].flatMap { case(line, timestamp) => line.split(" ").map(word => Event(sessionId
Timestamp.valueOf(splitStr(1))) }.as[(String, Timestamp)].flatMap { case(line, timestamp) => line.split(" ").map(word => Event(sessionId
table hivetest(a int, b string); insert into hivetest values (1,"test01"), (2,"test02"); 参考Hive数据脱敏,给hivetest表的字段b配置脱敏策略,验证脱敏是否生效: select * from
Timestamp.valueOf(splitStr(1))) }.as[(String, Timestamp)].flatMap { case(line, timestamp) => line.split(" ").map(word => Event(sessionId
Timestamp.valueOf(splitStr(1))) }.as[(String, Timestamp)].flatMap { case(line, timestamp) => line.split(" ").map(word => Event(sessionId
IDEA工具,请根据指导完成开发环境配置。 准备ClickHouse应用开发和运行环境 根据场景开发工程 提供样例工程,帮助用户快速了解ClickHouse各部件的编程接口。 导入并配置ClickHouse样例工程 运行程序及查询结果 用户可以直接通过运行结果查看应用程序运行情况。 在本地Windows环境中调测ClickHouse应用(MRS
sparkPlan.collect { case scan: CarbonDataSourceScan if scan.rdd.isInstanceOf[CarbonScanRDD[InternalRow]] => scan.rdd case scan: RowDataSourceScanExec
IDEA工具,请根据指导完成开发环境配置。 准备ClickHouse应用开发和运行环境 根据场景开发工程 提供样例工程,帮助用户快速了解ClickHouse各部件的编程接口。 导入并配置ClickHouse样例工程 运行程序及查询结果 用户可以直接通过运行结果查看应用程序运行情况。 在本地Windows环境中调测ClickHouse应用(MRS