检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
获取方法请参见获取项目ID。 scope参数定义了Token的作用域,上面示例中获取的Token仅能访问project下的资源。您还可以设置Token的作用域为某个账号下所有资源或账号的某个project下的资源,详细定义请参见IAM服务的获取用户Token。 POST htt
、创建列族、检查表是否存在、修改表结构和列族结构以及删除表等功能。 (5)调用Admin的建表方法。 注意事项 注[1] 表和列族其它属性设置可以参考开发HBase应用。 注[1] 指的是代码样例中的“admin.createTable(htd); // 注[1] (5)”。 父主题:
Hive连接步骤 登录表格存储服务管理控制台。 用户在CloudTable集群管理界面,选择需要操作的集群进入集群详情页面。 单击tab页中的“连接设置”,弹出连接页面。 单击左上角“新建连接”创建MRS Hive连接。 新建连接类型:非安全认证hive on hdfs,认证类型选择SIMPLE,OBS按钮关闭状态。
port:HTTP的端口。 创建导入任务的详细语法可以通过HELP STREAM LOAD命令查看。Stream Load中所有与导入任务相关的参数均设置在Header中。相关参数描述如下表所示。 表1 参数说明 参数 说明 签名参数 user/passwd Stream load由于创建导
Hive连接步骤 登录表格存储服务管理控制台。 用户在CloudTable集群管理界面,选择需要操作的集群进入集群详情页面。 单击tab页中的“连接设置”,弹出连接页面。 单击左上角“新建连接”创建MRS Hive连接。 新建连接类型:安全认证hive on OBS,认证类型选择KERBEROS,OBS按钮开启状态。
e接口重新启用表。 注[1] 指的是代码样例中的“admin.modifyTable(tableName, htd); //注[1]”。 设置已有表的冷热分离功能。 public void testModifyTable() { LOG.info("Entering testModifyTable
批量资源开通自动续费:选择需要开通自动续费的云服务器,单击列表左上角的“开通自动续费”。 图3 多个资源开通自动续费 选择续费时长,并根据需要设置自动续费次数,单击“开通”。 在“续费管理”页面开通的自动续费,自动续费周期以实际选择的续费时长以及自动续费次数为准。例如:您选择了续费时
节点扩容 growCloudTableCluster cluster 重启集群 rebootCloudTableCluster cluster 设置存储配额 storageClusterAction cluster 特性开关 modifyClusterFeatures cluster 参数配置
可以采用翻页显示,您可以查看任何状态下的集群。 图1 集群列表图 表1 集群管理列表参数 参数 参数说明 集群名称 集群的名称,创建集群时设置。 集群状态 集群当前所处状态,包括创建中、服务中、亚健康、创建失败、冻结。 任务状态 集群任务的状态信息。 引擎类型 HBase\Doris\ClickHouse。
hdfs 登录表格存储服务管理控制台。 用户在CloudTable集群管理界面,选择需要操作的集群进入集群详情页面。 单击tab页中的“连接设置”,弹出连接页面。 单击左上角“新建连接”创建MRS Hive连接。 新建连接类型:安全认证hive on hdfs,认证类型选择KERBEROS,OBS按钮关闭状态。
集群列表 集群管理列表按照集群状态顺序排列,服务中的集群显示在最前端。 表1 集群管理列表参数 参数 参数说明 集群名称 集群的名称,创建集群时设置。 集群状态 集群当前所处状态,包括创建中、服务中、亚健康、创建失败、冻结。 任务状态 集群任务的状态信息。 引擎类型 Doris 集群版本
1%~100% 租户最大占用内存资源的百分比。 并发数 1~2147483647 租户最大可运行查询任务的并发数。该值是对单个FE的限定。例如设置并发数为1,Doris有三个FE节点,则从集群角度看,最大可运行的SQL数为3。 队列长度 1~2147483647 租户最大等待执行的查
优势。本样例工程以城市+区域+时间作为RowKey,列都存储在info列族中。 当天整点写入数据,同时一天前数据查询频率较低,节省存储空间设置冷热分离,将一天前数据自动归档到冷存储。 父主题: 开发HBase冷热分离应用
单击页面上方的“服务列表”,选择“管理与部署 > 云审计服务”,进入云审计服务信息页面。 单击左侧导航树的“事件列表”,进入事件列表信息页面。 单击事件列表右上方的“筛选”,设置对应的操作事件条件。 当前事件列表支持四个维度的组合查询,详细信息如下: “事件来源”、“资源类型”和“筛选类型”。 “事件来源”:选择“CloudTable”。
集群管理列表默认按时间顺序排列,时间最近的集群显示在最前端。集群管理列表参数说明如表1和表2所示。 表1 集群管理列表参数 参数 参数说明 集群名称 集群的名称,创建集群时设置。 集群状态 集群的运行状态信息。集群状态包括创建中、服务中、亚健康、创建失败和冻结。 任务状态 集群任务的状态信息。请参见表4。 引擎类型
分桶 根据分桶列的Hash值将数据划分成不同的Bucket。 如果使用了Partition,则DISTRIBUTED ... 语句描述的是数据在各个分区内的划分规则。如果不使用Partition,则描述的是对整个表的数据的划分规则。 分桶列可以是多列,Aggregate和Uniq
oncurrent_num 5 否 int 未更改 - (0,10) 5 该参数限制了一个例行导入作业最大的子任务并发数。建议维持默认值。设置过大,可能导致同时并发的任务数过多,占用集群资源。 dynamic_partition_enable true 否 boolean 未更改
boost::shared_ptr<TProtocol> protocol(new TBinaryProtocol(transport)); // 设置表名 std::string ns("default"); std::string table("test"); TTableName
使用DLI Flink作业实时同步MRS Kafka数据至CloudTable HBase集群 此章节为您介绍数据实时同步的最佳实践,通过数据湖探索服务DLI Flink作业将MRS kafka数据实时同步给HBase,实现Kafka实时入库到HBase的过程。 了解DLI请参见数据湖探索产品介绍。
使用DLI Flink作业实时同步MRS Kafka数据至CloudTable ClickHouse集群 此章节为您介绍数据实时同步的最佳实践,通过数据湖探索服务DLI Flink作业将MRS kafka任务制造数据实时同步给ClickHouse,实现Kafka实时入库到ClickHouse的过程。