检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
添加主备集群容灾关系。 以“hbase”用户进入主集群的HBase shell界面。 hbase用户的初始密码为“Hbase@123”,详情请参考用户账号一览表。 在HBase shell中执行如下命令,创建主集群HBase与备集群HBase之间的容灾同步关系。 add_peer '备集群ID'
mns),然后应用该策略重写数据。 创建一个REPLACE提交,并更新HoodieReplaceCommitMetadata中的元数据。 如何执行Clustering 同步执行Clustering配置。 在写入时加上配置参数: option("hoodie.clustering.inline"
例所在分片编号shard为2,副本编号replica为1。 本章节详细描述了分片和副本信息的配置说明,具体ClickHouse集群副本之间如何进行数据同步,详见副本机制详细说明。 副本机制 ClickHouse利用ZooKeeper,通过ReplicatedMergeTree引擎(Replicated
-----+------------- 100 | a 200 | b,c max_by(x, y) 描述:返回与所有输入值中y字段的最大值相关联的x的值。 select max_by(name,price) from fruit; -- peach max_by(x, y, n)
e频繁进行flush、compact、split操作需要消耗较大的CPU和网络资源,并且RegionServer压力也比较大。 本实践基于华为云MapReduce服务,用于指导您创建MRS集群后,使用BulkLoad方式向HBase中批量导入本地数据,在首次数据加载时,能极大的提高写入效率,并降低对Region
nonEmptyPartitionRatioForBroadcastJoin 两表进行join操作的时候,当非空分区比率低于此配置时,无论其大小如何,都不会被视为自适应执行中广播哈希连接的生成端。只有当spark.sql.adaptive.enabled为true时,此配置才有效。 0
nonEmptyPartitionRatioForBroadcastJoin 两表进行join操作的时候,当非空分区比率低于此配置时,无论其大小如何,都不会被视为自适应执行中广播哈希连接的生成端。只有当spark.sql.adaptive.enabled为true时,此配置才有效。 0
使用Ranger管理员用户rangeradmin登录Ranger WebUI页面。 rangeradmin用户默认密码为“Rangeradmin@123”,详细内容请参见用户账号一览表。 在Ranger首页中单击“HBASE”区域的组件插件名称如“HBase”。 单击“Policy Name”名称为“all - table
各服务的部署原则如MRS集群部署方案说明所示。 A依赖于B(服务级):若集群中部署A服务,需要提前部署B服务,B为A提供基础能力。 A关联于B(服务级):A服务与B服务在业务进行中会产生数据交互,不存在部署上的依赖关系。 A与B共机部署(角色级):若集群中部署A角色,需要同时
Manager创建恢复Hive任务并恢复数据。只支持创建任务手动恢复数据。 Hive备份恢复功能不支持识别用户的Hive表、索引、视图等对象在业务和结构上存在的关联关系。用户在执行备份恢复任务时,需要根据业务场景管理统一的恢复点,防止影响业务正常运行。 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。
mns),然后应用该策略重写数据。 创建一个REPLACE提交,并更新HoodieReplaceCommitMetadata中的元数据。 如何执行Clustering 同步执行Clustering配置。 在写入时加上配置参数: option("hoodie.clustering.inline"
n计算的Reduce过程中无需传递数据,直接在节点本地做Map Join后就能得到结果,性能显著提升。 HDFS数据同分布特性,使得需要做关联和汇总计算的两个文件FileA和FileB,通过指定同一个分布ID,使其所有的Block分布在一起,不再需要跨节点读取数据就能完成计算,极大提高MapReduce
勾选“我已经阅读上述信息,并了解具体影响。”并单击“确定”。 单击“组件管理”观察各个组件是否存在异常,若存在异常等待5~10分钟后再次观察组件,依然存在异常则联系华为云技术支持处理。 单击“告警管理”观察是否存在异常告警,若存在请清除告警后再进行其他操作。 父主题: MRS集群容量调整
登录Manager,选择“集群 > 服务 > Flink”,在“Flink WebUI”右侧,单击链接,访问Flink的WebUI。 参考如何创建FlinkServer作业,新建Flink SQL作业,作业类型选择“流作业”。在作业开发界面进行如下作业配置并启动作业。 需勾选“基
久化到硬盘。对于数据本地化,是通过允许用户能够基于每条记录的键值,控制数据分区实现的。(采用这种方式的一个明显好处是,能够保证两份需要进行关联的数据将会被同样的方式进行哈希)。如果内存的使用超过了物理限制,Spark将会把这些比较大的分区写入到硬盘,由此来保证可扩展性。 Spark具有如下特点:
client命令连接,host参数为ELB的私有IP地址。 HTTP 8123 发送http请求到ELB连接ClickHouse场景时配置。 本章节演示如何实现客户端通过ELB访问ClickHouse。具体操作分为以下几个步骤: 步骤一:购买ELB并获取其私有IP地址。 步骤二:添加ELB监听器,配置协议端口。
starting:启动中 terminating:删除中 terminated:已删除 failed:失败 接口约束 无 调用方法 请参见如何调用API。 URI DELETE /v1.1/{project_id}/clusters/{cluster_id} 表1 路径参数 参数
权限 > 用户 > 添加用户”,在新增用户界面创建一个机机用户,例如flinkuser。 “用户组”需加入“supergroup”用户组,并关联“System_administrator”角色。 选择“系统 > 权限 > 用户”,在用户名为“flinkuser”的操作列选择“更多 >
Manager创建备份Hive任务。支持创建任务自动或手动备份数据。 Hive备份恢复功能不支持识别用户的Hive表、索引、视图等对象在业务和结构上存在的关联关系。用户在执行备份恢复任务时,需要根据业务场景管理统一的恢复点,防止影响业务正常运行。 Hive备份恢复功能不支持Hive on RDB
下面以编写一个AddDoublesUDF为例,说明UDF的编写和使用方法。 功能介绍 AddDoublesUDF主要用来对两个及多个浮点数进行相加,在该样例中可以掌握如何编写和使用UDF。 一个普通UDF必须继承自“org.apache.hadoop.hive.ql.exec.UDF”。 一个普通UDF必须