检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
系统当前指标取值满足自定义的告警设置条件。 对系统的影响 Kafka服务未完全同步的Partition数过多,会影响服务的可靠性,一旦发生leader切换,可能会导致丢数据。 可能原因 部分Broker实例所在节点故障或者实例停止运行,导致Kafka中某些Partition的副本下线。 处理步骤 检查Broker实例。
le不要绑定超过1000个用户或用户组,否则会导致查看Ranger权限信息缓慢。 Ranger界面不支持对用户、角色、用户组删除,防止出现数据不一致现象。 调整Ranger用户类型 登录Ranger管理页面。 调整Ranger用户类型须使用Admin类型的用户(例如admin)进
setProperty("HADOOP_USER_NAME", "root");设置了用户为root,请确保场景说明中上传的数据的用户为root,或者在代码中将root修改为上传数据的用户名。 在IntelliJ IDEA开发环境中,选中“MultiComponentLocalRunner.j
parse_presto_data_size('2.3MB'); -- 2411724 其他 typeof(expr) → varchar 返回表达式的数据类型名称。 SELECT typeof(123);-- integer SELECT typeof('cat');-- varchar(3)
默认取值: 不涉及 cluster_id 是 String 参数解释: 集群ID。如果指定集群ID,则获取该集群做过补丁更新的最新版本元数据。获取方法,请参见获取集群ID。 约束限制: 不涉及 取值范围: 只能由英文字母、数字以及“_”和“-”组成,且长度为[1-64]个字符。
setProperty("HADOOP_USER_NAME", "root");设置了用户为root,请确保场景说明中上传的数据的用户为root,或者在代码中将root修改为上传数据的用户名。 在IntelliJ IDEA开发环境中,选中“MultiComponentLocalRunner.j
materialized.view”来改变允许使用的物化视图个数。 开启物化视图“重写缓存” Session级别: 参考快速使用HetuEngine访问Hive数据源在HetuEngine客户端执行set session rewrite_cache_enabled=true System级别: 使用用于访问HetuEngine
<Kafka集群IP:21007> --topic <Topic名称> --producer.config config/producer.properties 消费数据,需要拥有该Topic的消费者权限。 bin/kafka-console-consumer.sh --topic <Topic名称> --bootstrap-server
<Kafka集群IP:21007> --topic <Topic名称> --producer.config config/producer.properties 消费数据,需要拥有该Topic的消费者权限。 bin/kafka-console-consumer.sh --topic <Topic名称> --bootstrap-server
可能会导致集群短暂的不可用。 可能原因 相关进程发生crash。 处理步骤 以下解析查看core文件堆栈信息的操作有可能会涉及到用户的敏感数据,开发或运维人员必须在获得用户授权的情况下才能进行操作。 告警所产生的core文件系统默认保留72小时,文件保存超时或者大小超过设定值后会
Flume服务端端口。 对系统的影响 产生告警的Flume Client无法与Flume Server端进行通信,Flume Client端的数据无法传输到Flume Server端。 可能原因 Flume Client端与Flume Server端网络故障。 Flume Client端进程故障。
partitions命令查看Hudi表的分区格式,然后写正确的正则表达式来匹配分区。 value和units要搭配使用,value给定的是整数值,units是数值的单位,表示数据要保留的时长。 更新TTL策略: call ttl_policy_save(table => "[table]", path => "[path]"
orders GROUP BY orderdate; 用和表orders具有相同schema创建新表empty_orders table,但是没数据: CREATE TABLE empty_orders AS SELECT * FROM orders WITH NO DATA; 使用VALUES创建表,参考
此参数值表示租户可使用的HDFS存储空间上限,不代表一定使用了这么多空间。 如果参数值大于HDFS物理磁盘大小,实际最多使用全部的HDFS物理磁盘空间。 说明: 为了保证数据的可靠性,HDFS中每保存一个文件则自动生成1个备份文件,即默认共2个副本。HDFS存储空间表示所有副本文件在HDFS中占用的磁盘空间大小
list子命令显示provider中所有的密钥名,这个provider由用户在core-site.xml中配置或者由-provider参数指定。-metadata参数显示的是元数据。 表2 Colocation 客户端shell命令 操作 命令 描述 创建组 hdfs colocationadmin -createGroup
否 String 参数解释: 数据连接类型。 约束限制: 不涉及 取值范围: LOCAL_DB:本地元数据 RDS_POSTGRES:RDS服务PostgreSQL数据库 RDS_MYSQL:RDS服务MySQL数据库 gaussdb-mysql:云数据库GaussDB(for MySQL)
文件系统”。 定位到指定目录或文件在HDFS中保存的位置。 在指定目录或文件的“权限”列,勾选“读”和“执行”。 设置用户在其他用户的文件写入数据的权限 在“配置资源权限”的表格中选择“待操作集群的名称 > HDFS > 文件系统”。 定位到指定文件在HDFS中保存的位置。 在指定文件的“权限”列,勾选“写”和“执行”。
<Kafka集群IP:21007> --topic <Topic名称> --producer.config config/producer.properties 消费数据,需要拥有该Topic的消费者权限。 shkafka-console-consumer.sh --topic <Topic名称> --bootstrap-server
<Kafka集群IP:21007> --topic <Topic名称> --producer.config config/producer.properties 消费数据,需要拥有该Topic的消费者权限。 shkafka-console-consumer.sh --topic <Topic名称> --bootstrap-server
Agent的sink名称。 对系统的影响 产生告警的Flume Client无法与Flume Server端进行通信,Flume Client端的数据无法传输到Flume Server端。 可能原因 Flume Client端与Flume Server端网络故障。 Flume Client端进程故障。