检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置ClickHouse对接Kafka 配置ClickHouse通过用户密码对接Kafka 配置ClickHouse通过Kerberos认证对接Kafka 配置ClickHouse对接普通模式Kafka 父主题: ClickHouse数据导入
将自动读取数据库中的字段,可根据需要选择添加,然后根据业务场景手动进行完善或者修正即可,无需逐一手动添加。 此操作会覆盖表格内已有数据。 通过“表输出”算子,将A、B和C输出到test_1表中: select * from test_1; 父主题: Loader输入类算子
的权限,只有HBase管理用户才有修改权限;其次检查发出该请求的IP的有效性,备集群只接收来自IP白名单中的机器发起的修改请求。IP白名单通过配置项“hbase.replication.allowedIPs”配置。 在FusionInsight Manager系统中,选择“集群 >
> 服务 > Doris > 配置”。 搜索“priority_network”参数,并正确设置BE的该参数值,BE节点已绑定的网卡IP可通过“BE安装目录/FusionInsight_Doris_*/1_*_BE/etc/ENV_VARS”中的“CURRENT_INSTANCE_IP”变量查看。
port 必选 String 端口为对应的Redis实例的端口。 Redis实例的端口计算方式为:22400+该实例的ID-1。 实例ID可以通过在FusionInsight Manager中选择“集群 > 服务 > Redis > Redis管理”,单击Redis集群名称查看。 例
Kafka”,查看当前Kafka状态,发现状态为良好,且监控指标内容显示正确。 在Kafka概览页面获取Controller节点信息。 登录Controller所在节点,通过cd /var/log/Bigdata/kafka/broker命令进入节点日志目录,在state-change.log发现存在ZooKe
将自动读取数据库中的字段,可根据需要选择添加,然后根据业务场景手动进行完善或者修正即可,无需逐一手动添加。 此操作会覆盖表格内已有数据。 通过“表输出”算子,将A、B和C输出到test_1表中: select * from test_1; 父主题: 输入算子
ode节点为主节点,另一个为备节点。HDFS NameNode Standby通过ZooKeeper定时读取NameNode信息。 当主节点进程异常结束时,HDFS NameNode Standby通过ZooKeeper感知“/hadoop-ha”目录下发生了变化,NameNode会进行主备切换。
ENABLED 如上所示,/hbase2表示数据是同步到备集群的HBase2实例。 在备集群FusionInsight Manager的服务列表中,查看通过9获取的HBase实例运行状态是否为“良好”。 是,执行14。 否,执行11。 在告警列表中,查看是否有“ALM-19000 HBase服务不可用”告警产生。
[TBLPROPERTIES ("groupId"=" group1 ","locatorId"="locator1")] ...; 创建一个hive表,并指定表数据文件分布的locator信息。详细说明请参见使用HDFS Colocation存储Hive表。 CREATE TABLE tab1 (id INT
> 服务 > Doris > 配置”。 搜索“priority_network”参数,并正确设置FE的该参数值,FE节点已绑定的网卡IP可通过“FE安装目录/FusionInsight_Doris_*/1_*_FE/etc/ENV_VARS”中的“CURRENT_INSTANCE_IP”变量查看。
[TBLPROPERTIES ("groupId"=" group1 ","locatorId"="locator1")] ...; 创建一个hive表,并指定表数据文件分布的locator信息。详细说明请参见使用HDFS Colocation存储Hive表。 CREATE TABLE tab1 (id INT
指导用户将开发好的程序编译并打包,上传到VPC的Linux节点运行。 调测Kafka应用 查看程序运行结果 程序运行结果可以输出到Linux命令行页面。也可通过Linux客户端进行Topic数据消费的方式查看数据是否写入成功。 调测Kafka应用 父主题: Kafka应用开发概述
启。 如果异常角色较多,可单击右上角的“管理操作”选择启动所有组件。 如果存在其他情况导致服务异常无法解决,请联系技术服务协助处理。 也可通过集群Manager页面进行启动实例操作,具体请参考管理MRS角色实例。 父主题: 存算分离常见问题
get) 通过指定的rowkey读取数据。 Result[] get(List<Get> gets) 通过指定一批rowkey的方式批量读取数据。 ResultScanner getScanner(Scan scan) 获取该表的一个Scanner对象,查询相关的参数可以通过入参sc
弹性伸缩规则:根据集群实时负载对Task节点数量进行调整,数据量变化后触发扩缩容,有一定的延后性。 资源计划:若数据量变化存在周期性规律,则可通过资源计划在数据量变化前提前完成集群的扩缩容,避免出现增加或减少资源的延后。 弹性伸缩规则与资源计划均可触发弹性伸缩,两者既可同时配置也可单
end-commit 选填 Stream增量消费,通过参数read.streaming.start-commit指定起始消费位置; Batch增量消费,通过参数read.streaming.start-commit指定起始消费位置,通过参数read.end-commit指定结束消费位
随着任务量的增大或者任务并发较高,有可能会导致Executor内存不足,导致占用CPU较高、Executor进程OOM等问题。 解决步骤 通过root用户登录Master1或Master2其中任意一节点,执行以下命令切换到omm用户。 su - omm 执行以下命令,修改“catalina
<table_name>","< list of segment ids >");” 说明: 不建议在carbon.properties文件中设置该属性,因为所有会话都包含段列表,除非发生会话级或线程级覆盖。 示例 添加(Add)或更新(Update): SET enable.unsafe
/opt/hive_examples/conf/user.keytab hiveuser 在连接安全集群时需要在hive客户端的HCatalog的配置文件(例如:/opt/client/Hive/HCatalog/conf/hive-site.xml)中添加如下配置: <property> <name>hive