检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如果您需要对云上购买的CloudTable资源,为企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全地控制云资源的访问。
按需计费模式的资源按照固定周期上报使用量到计费系统进行结算。按需计费模式产品根据使用量类型的不同,分为按小时、按天、按月三种周期进行结算,具体扣费规则可以参考按需产品周期结算说明。具体扣费规则可以参考按需产品周期结算说明。 CloudTable集群的按需计费模式按小时进行结算,按需计费资源的扣费时间可能会滞后于结算周期。
JDK,请确保IntelliJ IDEA中的JDK配置为Oracle JDK。 如果使用Open JDK,请确保IntelliJ IDEA中的JDK配置为Open JDK。 不同的IntelliJ IDEA不要使用相同的workspace和相同路径下的示例工程。 安装Maven 开发环境的基本配置。用于项目管理,贯穿软件开发生命周期。
RDS服务MySQL数据库实例IP地址和端口。 database RDS服务MySQL数据库名。 user RDS服务MySQL数据库用户名。 password RDS服务MySQL数据库用户密码。 MySQL引擎使用示例: 连接到RDS服务的MySQL数据库。详细操作可以参考RDS服务MySQL实例连接。
编译并运行程序 操作场景 在程序代码完成开发后,您可以在Windows开发环境中运行应用。 操作步骤 未开启加密通道的HBase集群 在开发环境中(例如Eclipse中),右击“TestMain.java”,单击“Run as > Java Application”运行对应的应用程序工程。
使用MySQL客户端访问集群 用户在弹性云服务器里可以通过手动安装客户端的方法,使用MySQL访问集群。 手动安装客户端 准备Linux弹性云服务器,具体操作请见准备弹性云服务章节。 安装客户端,连接集群。 使用SSH登录工具,通过弹性IP远程登录到Linux弹性云服务器。 具体
SQL作业。如果修改SQL,单击操作列的“开发”,进入SQL页面添加以下命令。 ip:port获取ip地址和端口。 ip地址获取:进入集群的Manager页面,单击“集群 > Kafka > 实例 > 管理IP(Broker)”,可获取ip地址。 port获取:单击配置,进入配置页面,搜索“port
HBase应用程序支持在安装HBase客户端的Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至Linux环境中运行应用。 前提条件 已安装HBase客户端。 Linux环境已安装JDK,版本号需要和Eclipse导出Jar包使用的JDK版本一致。 操作步骤 导出Jar包。 右击样例工程,选择导出。
看虚拟私有云”进入虚拟私有云,创建一个新的虚拟私有云。 子网 指定虚拟私有云的一个子网。 集群使用子网实现与其他网络的隔离,并独享所有网络资源,以提高网络安全。 安全组 安全组用来实现安全组内和安全组间弹性云服务器的访问控制,加强弹性云服务器的安全保护。用户可以在安全组中定义各种
SQL作业。如果修改SQL,单击操作列的“开发”,进入SQL页面添加以下命令。 ip:port获取ip地址和端口: ip地址获取:进入集群的Manager页面,单击“集群 > Kafka > 实例 > 管理IP(Broker)”,可获取ip地址。 port获取:单击配置,进入配置页面,搜索“port
如果仅选择一个或少数分桶列,则对应的点查询可以仅触发一个分桶扫描。此时,当多个点查询并发时,这些查询有较大的概率分别触发不同的分桶扫描,各个查询之间的IO影响较小(尤其当不同桶分布在不同磁盘上时),所以这种方式适合高并发的点查询场景。 AutoBucket: 根据数据量,计算分桶数。 对于分区表,可以根据历史分
is支持多种导入方式。 支持数据源 Doris提供多种数据导入方案,可以针对不同的数据源选择不同的数据导入方式。 Broker Load Stream Load 支持的数据格式 不同的导入方式支持的数据格式不同。 表1 导入方式说明 导入方式 支持格式 Broker Load parquet、orc、obs
表示用于传输请求的协议,当前所有API均采用HTTPS协议。 Endpoint 指定承载REST服务端点的服务器域名或IP,不同服务不同区域的Endpoint不同,您可以从终端节点及区域获取。 resource-path 资源路径,也即API访问路径。从具体接口的URI模块获取,例如
CloudTable.0105 vpc_id为空,创建集群失败 创建集群的参数中,vpc_id参数值为空导致创建集群失败。 确保请求参数中vpc_id参数值正确无误。 400 CloudTable.0106 vpc_id参数值无效 vpc_id参数值无效。 vpc_id从VPC控制台确获取。 400
在其他情况下,这可能会降低效率。可以有效存储在FixedString类型的列中的值的示例: 二进制表示的IP地址(IPv6使用FixedString(16)) 语言代码(ru_RU, en_US … ) 货币代码(USD, RUB … ) 二进制表示的哈希值(MD5使用FixedString
海量大数据场景下,随着业务和数据量的不断增长,数据存储与消耗的资源也日益增长。根据业务系统中用户对不同时期数据的不同使用需求,对膨胀的数据本身进行“冷热”分级管理,不仅可以提高数据分析性能还能降低业务成本。 背景 在数据分析的实际场景中,冷热数据面临着不同的查询频次及响应速度要求。而随着历史数据的不断增多,如果我们将
join的执行逻辑差别很大,建议使用global join做分布式表查询。 【规则】合理使用数据表的分区字段和索引字段。 MergeTree引擎,数据是以分区目录形式进行组织存储的,在进行数据查询时,使用分区可以有效跳过无用的数据文件,减少数据的读取。 MergeTree引擎会根据索引字段进行数据排序
表引擎在ClickHouse中的作用十分关键,不同的表引擎决定了: 数据存储和读取的位置。 支持哪些查询方式。 能否并发式访问数据。 能否使用索引。 是否可以执行多线程请求。 数据复制使用的参数。 其中MergeTree和Distributed是ClickHouse表引擎中最重要,也是最常使用的两个引擎,本文将重点进行介绍。
将CloudTable样例代码工程导入到Eclipse,就可以开始CloudTable应用开发样例的学习。 前提条件 运行环境已经正确配置,请参见准备Windows运行环境。 操作步骤 把样例工程上传到Windows开发环境中。样例工程的获取方法请参见下载样例工程。 在应用开发环境中,导入样例工程到Eclipse开发环境。
使用CDM迁移数据到CloudTable 通过云数据迁移(Cloud Data Migration,以下简称CDM),可以将云上云下或第三方云上的多种数据源的数据迁移到CloudTable集群的HBase表中。支持的数据源请参见《云数据迁移产品介绍》中的支持的数据源章节。 使用C