检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
00之间的值。 200 hfile.block.cache.size HBase缓存区大小,主要影响查询性能。根据查询模式以及查询记录分布情况来决定缓存区的大小。如果采用随机查询使得缓存区的命中率较低,可以适当降低缓存区大小。 当offheap关闭时,默认值为0.25。当offheap开启时,默认值是0
> 实例”,进入Storm实例管理页面。 查看是否存在状态为“故障”或者是“正在恢复”的Supervisor实例。 是,执行3。 否,执行5。 勾选状态为“故障”或者“正在恢复”的Supervisor角色实例,选择“更多 > 重启实例”,查看是否重启成功。 是,执行4。 否,执行10。
调整Yarn任务抢占机制 操作场景 Capacity调度器抢占原理: 抢占任务可精简队列中的job运行并提高资源利用率,由ResourceManager的capacity scheduler实现,其简易流程如下: 假设存在两个队列A和B。其中队列A的capacity为25%,队列B的capacity为75%。
--创建数据库名为test的数据库 CREATE DATABASE test ON CLUSTER default_cluster; --创建成功后,通过查询命令验证 show databases; ┌─name───┐ │ default │ │ system │ │ test
--创建数据库名为test的数据库 CREATE DATABASE test ON CLUSTER default_cluster; --创建成功后,通过查询命令验证 show databases; ┌─name───┐ │ default │ │ system │ │ test
扩容过程中已有节点停止或故障。 处理步骤 在FusionInsight Manager首页,选择“集群 > 服务 > ClickHouse > 实例”。 查看是否有停止、退服或故障的实例。 是,执行3。 否,执行4。 启动实例,或修复实例故障,直到所有实例运行状态都是良好。 在FusionInsight
创建HBase客户端连接 创建HBase表 创建HBase表Region 向HBase表中插入数据 创建HBase表二级索引 基于二级索引查询HBase表数据 修改HBase表 使用Get API读取HBase表数据 使用Scan API读取HBase表数据 使用Filter过滤器读取HBase表数据
huawei.clickhouse.examples.Demo 查看调测结果 ClickHouse应用程序运行完成后,可通过以下方式查看程序运行情况: 通过运行结果查看程序运行情况。 通过ClickHouse日志获取应用运行情况。 即查看当前jar文件所在目录的“logs/clickhouse-example
观察数据库用户已使用的连接数图表,如图1所示,用户根据业务场景评估,适当降低数据库用户连接数的使用。 图1 数据库用户已使用的连接数图表 等待2分钟查看告警是否自动恢复。 是,处理完毕。 否,执行4。 检查数据库连接数最大值设置是否合理 登录FusionInsight Manager,选择“集群
Hive负载均衡 配置Hive单表动态视图的访问控制权限 配置创建临时函数的用户不需要具有ADMIN权限 配置具备表select权限的用户可查看表结构 配置仅Hive管理员用户能创建库和在default库建表 配置Hive支持创建超过32个角色 创建Hive用户自定义函数 配置Hive
commits个Instant不会被归档,以此保证有足够的Instant去触发compation schedule。 系统响应 可在driver日志和客户端中查看命令运行成功或失败。 父主题: Hudi DML语法说明
Spark运维管理 快速配置参数 常用参数 Spark2x日志介绍 调整Spark日志级别 配置WebUI上查看Container日志 获取运行中Spark应用的Container日志 配置Spark Eventlog日志回滚 配置WebUI上显示的Lost Executor信息的个数
修改列名后自动同步到列comment中,comment的形式为:rename oldName to newName。 系统响应 通过运行DESCRIBE命令查看表列修改。 父主题: Hudi Schema演进及语法说明
使用Hue提交Oozie SSH作业 使用Hue提交Coordinator定时调度作业 使用Hue提交提交Bundle批处理作业 在Hue界面中查询Oozie作业结果 配置Oozie节点间用户互信 父主题: 使用Oozie
--给test2表插入数据 insert into test2 (id, name) values (1, 'abc'), (2, 'bbbb'); --查询test2表数据 select * from test2; ┌─id─┬─name─┐ │ 1 │ abc │ │ 2 │
称,RSGroup名称包括数字、字母或下划线(_),长度为1-120个字符。然后单击“确定”。 查看RSGroup 选择待操作的RSGroup,在操作列单击“查看”,即可在弹出框中查看该RSGroup的RegionServers详情和Tables详情。 default RSGro
称,RSGroup名称包括数字、字母或下划线(_),长度为1-120个字符。然后单击“确定”。 查看RSGroup 选择待操作的RSGroup,在操作列单击“查看”,即可在弹出框中查看该RSGroup的RegionServers详情和Tables详情。 default RSGro
操作Avro格式数据 场景说明 用户可以在Spark应用程序中以数据源的方式去使用HBase,本例中将数据以Avro格式存储在HBase中,并从中读取数据以及对读取的数据进行过滤等操作。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的HBase表:
在FusionInsight Manager首页,选择“运维 > 告警 > 告警 > Oozie堆内存使用率超过阈值”,检查该告警的“定位信息”。查看告警上报的实例主机名。 在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Oozie >
config = createConf(); String userJarFilePath = "替换为用户jar包地址"; System.setProperty(STORM_SUBMIT_JAR_PROPERTY, userJarFilePath);