检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
WebUI登录地址。 使用获取到的登录地址,访问EFAK WebUI界面。 访问EFKA WebUI界面默认初始账号密码admin/123456 登录后可以查看Kafka集群监控页面、Topic监控页面、Consumer监控页面,例如: 图3 Kafka集群监控 图4 Topic监控 图5 Consumer监控
使用ls命令查看DataNode数据目录中的每个目录是否存在。 是,执行26。 否,执行12。 使用mkdir 数据目录命令创建该目录,查看是否可以创建成功。 是,执行24。 否,执行13。 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,查看是否存在告警“ALM-12017
partitionpath.field 用于指定分区键,该值配合hoodie.datasource.write.keygenerator.class使用可以满足不同的分区场景。 无 hoodie.datasource.write.hive_style_partitioning 用于指定分区方式
<name>HBASE_ZK_SSL_ENABLED</name> <value>true</value> </property> 执行以下命令创建Hive表。 可以在Hue WebUI中Hive面板直接输入以下SQL创建表。 CREATE DATABASE test; CREATE TABLE IF NOT
java”文件中修改“TOPIC”变量,例如:public final static String TOPIC = "kafka-topic"。 可以通过修改“KafkaConsumerMultThread.java”文件中的“CONCURRENCY_THREAD_NUM”参数值调整消费者线程数量。
不涉及 取值范围: 标签的key值可以包含任意语种字母、数字、空格和_.:=+-@,但首尾不能含有空格,不能以_sys_开头。 默认取值: 不涉及 values 否 Array of strings 参数解释: 标签的值。 约束限制: 标签的value值可以包含任意语种字母、数字、空格和_
“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号].log.zip”。最多保留最近的100个压缩文件,压缩文件保留个数可以在Manager界面中配置。 表1 HDFS日志列表 日志类型 日志文件名 描述 运行日志 hadoop-<SSH_USER>-<proc
打开IntelliJ IDEA,在“Quick Start”页面选择“Open or Import”。 另外,针对已使用过的IDEA工具,可以从主界面选择“File > Import project...”导入样例工程。 图6 Open or Import(Quick Start页面)
DstreamKafkaWriter。 建议使用新的API createDirectStream代替旧的API createStream进行应用程序开发。旧的API仍然可以使用,但新的API性能和稳定性更好。 /** * 参数解析: * <groupId>为客户的组编号。 * <brokers>为获取元数据的Kafka地址。
DstreamKafkaWriter。 建议使用新的API createDirectStream代替旧的API createStream进行应用程序开发。旧的API仍然可以使用,但新的API性能和稳定性更好。 /** * 参数解析: * <groupId>为客户的组编号。 * <brokers>为获取元数据的Kafka地址。
“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号].log.zip”。最多保留最近的20个压缩文件,压缩文件保留个数可以在Manager界面中配置。 表1 HBase日志列表 日志类型 日志文件名 描述 运行日志 hbase-<SSH_USER>-<proc
31 Gib (attempt to allocate chunk of 1048591 bytes), maximum: 9.31 GiB 可以通过调大“min_bytes_for_wide_part”来规避。 参考案例 MergeTree引擎在建表的时候支持列字段和表级的TTL。
直接重启 重启时正在运行的任务将失败,重启期间无法提交新任务。 直接重启耗时约10分钟。 滚动重启 滚动重启时运行在重启实例上的任务将失败,可以向其他节点提交任务。 10个节点耗时约50分钟。 Flume 直接重启 停止期间数据流中断,启动后恢复。 直接重启耗时约5分钟。 滚动重启
ngs.xml”文件,覆盖至“<本地Maven安装目录>/conf/settings.xml”文件即可。 如果不想覆盖Maven配置文件,可以参考以下方法手动修改“settings.xml”配置文件或者组件样例工程中的“pom.xml”文件,配置镜像仓地址。 配置方法一:修改“settings
Kerberos服务的renewable、forwardable开关和票据刷新周期的设置在Kerberos服务的配置页面的“系统”标签下,票据刷新周期的修改可以根据实际情况修改“kdc_renew_lifetime”和“kdc_max_renewable_life”的值。 下载并安装HBase客户端程序。
mvschema.t1; storage_table:物化视图数据物化成物理表的位置 创建物化视图时的catalog必须指定mv,schema可以自行创建 AS SELECT子句需注意创建物化视图的“AS SELECT”的子句列出的事项 创建有效期为1天不启动自动刷新的物化视图 create
描述:使用replacement替换目标字符串中满足正则表达式的子串。如果replacement中包含'$'字符,使用'\$' 进行转义。在替换中,可以对编号组使用$g引用捕获组,对命名组使用${name}引用捕获组。 SELECT regexp_replace('1a 2b 14m','(\d+)([ab])
名>-<yyyy-mm-dd_hh-mm-ss>.[编号].log.zip”。最多保留最近的20个压缩文件,压缩文件保留个数和压缩文件阈值可以配置。 表1 Hive日志列表 日志类型 日志文件名 描述 运行日志 /fe/fe.out 标准/错误输出的日志(stdout和stderr)
“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号].log.zip”。最多保留最近的100个压缩文件,压缩文件保留个数可以在Manager界面中配置。 表1 HDFS日志列表 日志类型 日志文件名 描述 运行日志 hadoop-<SSH_USER>-<proc
据库中的表也将自动添加或删除查询权限。 MRS 3.2.0及之后版本,如果数据库中分区超过百万级,并且分区都在表目录下。如需加快授权速度,可以在FusionInsight Manager 界面,选择“集群 > 服务 > Hive > 配置 > 全部配置 > MetaStore(角色)