检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
单节点个数默认为1。 本地SSD(不支持扩容) 计算规格 8U32G(本地盘容量:1.6T)。 8U64G(本地盘容量:1.6T)。 16U64G(本地盘容量:3.2T)。 16U128G(本地盘容量:3.2T)。 32U128G(本地盘容量:6.4T)。 64U256G(本地盘容量:6.4T)。
务,数据仍然保留。 了解更多关于续费的信息,请参见续费概述。 费用账单 您可以在管理控制台页面上方“费用 > 费用账单>账单管理”查看与云服务器相关的流水和明细账单,以便了解您的消费情况。如需了解具体操作步骤,请参见费用账单。 欠费 包年包月集群,没有欠费的概念。 按需购买的集群
OBS并删除本地数据,之后新导入的数据生成的新Part达到容量上限或冷却时间后也会上传到OBS。 查询数据:用户在数据表上进行对应的查询,ClickHouse会根据对应表的存储策略信息查询到对应Bucket的根目录,并根据不同表下Part信息下载查询所需的数据到本地进行运算。 父主题:
Shell访问集群章节。 Doris客户端安装步骤请参见使用MySQL客户端访问集群章节。 ClickHouse客户端安装步骤请参见使用客户端访问集群章节。 弹性云服务器是否与集群在相同可用区、虚拟私有云、子网和安全组。 在弹性云详情页面和集群详情页面对比。 安全组的出入规则是否正确。 在集群详情页面单
全局二级索引限制与约束 使用场景限制 GSI不支持与HIndex(LSI)同时使用,即不支持在同一个数据表上同时创建本地索引与全局索引。 索引表不支持容灾。 不支持直接对索引表执行DISABLE、DROP、MODIFY和TRUNCATE操作。 索引DDL操作支持修改索引状态、删除
写分布式表时,数据会分发到集群的所有本地表,每个本地表插入的数据量是总插入量的1/N,batch size可能比较小,会导致data part过多,merge压力变大,甚至出现异常影响数据插入。 数据的一致性问题:数据先在分布式表写入节点的主机落盘,然后数据被异步地发送到本地表所在主机进行存储,
table的方式创建一个外部数据目录中的表的映射,或通过create external database的方式映射一个外部数据目录中的Database。 如果外部数据目录中的Database或Table非常多,则需要用户手动进行一一映射,使用体验不佳。 而新的Multi-Cata
ionserver节点分别对应一个公网ip, NAT绑定集群的VPC,配置DNAT规格,全端口映射。更多信息请参考NAT网关配置章节。 客户端终端配置hosts主机映射。 hosts映射的主机名,以及hmaster和regionserver的私网ip都需要找技术人员获取。 父主题:
Core节点 计算规格:4U16G。 存储规格:高IO,容量400GB/节点。 节点数量:3个。 计费构成分析 用了一段时间后,用户发现云服务器当前规格无法满足业务需要,于2023/03/18 15:30:00对集群扩容,扩容规格如下: 表1 变更计费模式 计费模式 计算规则 付费周期
节点数量:5个。 BE节点 计算规格:8U16G。 存储规格:高IO,容量400GB/节点。 节点数量:3个。 计费构成分析 用了一段时间后,用户发现云服务器当前规格无法满足业务需要,于2023/03/18 15:30:00对集群扩容,扩容规格如下: 表1 变更计费模式 计费模式 计算规则 付费周期
删除表 功能介绍 删除在创建表中创建的副本表和分布式表。 语句1:使用drop table将集群中的本地表删除。 语句2:使用drop table将集群中的分布式表删除。 样例代码 private void dropTable(String databaseName, String
hbase.regionserver.handler.count 100 -- [1,300] 100 RegionServer上的RPC服务器实例数,建议设置为100 ~ 300之间。 hbase.regionserver.metahandler.count 50 -- [1,100]
最高可以拓展到数百个节点,支持存储超过10PB的超大规模数据。 稳定可靠:支持数据多副本存储,集群具备自愈功能,自身的分布式管理框架可以自动管理数据副本的分布、修复和均衡,副本损坏时系统可以自动感知并进行修复。 生态丰富:提供丰富的数据同步方式,支持快速加载来自本地、Hadoop
登录MRS集群的Manager页面。 主页>Yarn>实例>ResoureManager>概览>配置文件>yarn-site.xml。 列类型映射 表2 参数说明 HMS Type Doris Type Comment boolean boolean - tinyint tinyint
此章节为您介绍数据实时同步的最佳实践,通过数据湖探索服务DLI Flink作业将MRS kafka数据实时同步给HBase,实现Kafka实时入库到HBase的过程。 了解DLI请参见数据湖探索产品介绍。 了解Kafka请参见MRS产品介绍。 图1 数据同步流程图 使用限制 MRS集群未开启Kerberos认证。
下载样例工程 前提条件 确认表格存储服务已经安装,并正常运行。 下载样例工程 下载样例代码工程。 下载完成后,将样例代码工程安装包解压到本地,得到一个Eclipse的JAVA工程。如图1所示。 图1 样例代码工程目录结构 Maven配置 样例工程中已经包含了hbase的客户端jar包,也可以替换成开源的HBase
查看审计日志 在开启了云审计服务后,系统开始记录CloudTable服务的操作日志。云审计服务管理控制台保存最近7天的操作记录。 本章节包含如下内容: 开启云审计服务 关闭审计日志 查看CloudTable的云审计日志 开启云审计服务 使用云审计服务前需要开启云审计服务,开启云审
图1 结果显示图 原因分析 由于创建表格的命令中携带了ON CLUSTER default_cluster,所以会在每一个节点上都创建一个本地表。 处理方法 删除其他节点上的表格以及存放的数据,可解决此问题。 创建数据库。 create database demo ON CLUSTER
认证用的密码直接写到代码中有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全; // 本示例以密码保存在环境变量中为例,运行本示例前请先在本地环境中设置环境变量CK_PASSWORD String password = System.getenv("CK_PASSWORD");
说明 database_name 数据库的名称,默认为当前选择的数据库。 table_name 本地表名。 ON CLUSTERClickHouse集群名 在每一个节点上都创建一个本地表,固定为ON CLUSTER ClickHouse集群名。 name1,name2 列名。 ENGINE