检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
然后使用clickhouse-example.properties配置的user和password作为认证凭据,ClickHouse会带着用户名和密码在服务端进行安全认证。 样例代码 ClickHouseDataSource clickHouseDataSource =new ClickHou
删除CloudTable指定集群 功能介绍 集群ID为集群唯一标识,根据集群ID删除指定集群。 如下状态的集群不允许删除: 创建中 扩容中 调试 您可以在API Explorer中调试该接口。 URI DELETE /v2/{project_id}/clusters/{cluster_id}
开发ClickHouse冷热分离应用 应用背景 典型场景说明 开发思路 样例代码 父主题: ClickHouse应用开发指导
ClickHouse用户管理 新建用户 用户管理命令简介 父主题: ClickHouse集群管理
扩容组件 功能介绍 扩容指定类型的集群节点。 URI POST /v2/{project_id}/clusters/{cluster_id}/nodes 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID。获取方法,请参见获取项目ID。
访问HBase ThriftServer样例程序 访问ThriftServer操作表 父主题: HBase应用开发指导
ClickHouse角色管理 新建角色 角色管理命令简介 父主题: ClickHouse集群管理
创建CloudTable集群 功能介绍 创建一个CloudTable集群。 使用接口前,您需要先获取如下资源信息。 通过VPC创建或查询VPC、子网。 通过安全组创建或查询可用的security_group_id。 本接口是一个同步接口,当创建CloudTable集群成功后会返回集群id。
开发思路 功能分解 根据上述的业务场景进行功能分解,需要开发的功能点如表1所示。 表1 在HBase中开发的功能 序号 步骤 代码实现 1 根据典型场景说明中的信息创建表。 请参见创建表。 2 导入用户数据。 请参见插入数据。 3 增加“教育信息”列族,在用户信息中新增用户的学历、职称等信息。
ClickHouse集群详情页面查看 登录表格存储服务管理控制台。 单击集群列表页面,选择其中一个ClickHouse集群 进入详情页面,详情页面显示监控页面的指标。 图1 ClickHouse监控页面 单击详情页面的监控小图标,可以跳转CES云服务监控查看ClickHouse集群详细监控指标。具体操作请参见查看集群监控信息
样例代码说明 配置参数 创建Configuration 创建数据表开启标签索引 写入数据 普通查询 抽样查询 分页查询 统计查询 父主题: 开发标签索引应用
磁盘扩容中(任务状态) 表示集群正在扩容中。 服务中(集群状态) 当集群扩容成功并正常提供服务时,其集群状态为服务中。 磁盘扩容失败(任务状态) 表示扩容失败。 查看磁盘扩容信息 单击确定后,集群任务状态变更为“磁盘扩容中”,当集群扩容完毕后,集群状态更新为“服务中”。 父主题: 扩容集群
开启opentsdb组件 opentsdb此功能只支持HBase的1.3.1版本。 功能介绍 开启opentsdb组件。 URI POST /v2/{project_id}/clusters/{cluster_id}/components/{component_name} 表1 路径参数
ClickHouse集群连接时报错? 问题现象 在CloudTable控制台创建ClickHouse安全集群后,连接集群报错。 原因分析 因为创建的是安全集群,用非安全命令连接,所以会报错。 处理方法 方法一:创建ClickHouse安全集群后,使用SSH工具连接,详情请参见使用客户端访问集群章节。
样例代码说明 配置参数 创建Configuration 创建Connection 创建表 删除表 修改表 插入数据 使用Get读取数据 使用Scan读取数据 父主题: 开发HBase冷热分离应用
创建MRS Hive连接 使用catalog连接非安全认证hive on hdfs 使用catalog连接kerberos安全认证hive on hdfs 使用catalog连接非安全认证hive on obs 使用catalog连接kerberos安全认证hive on obs
ClickHouse冷热分离应用 冷热分离概述 使用ClickHouse冷热分离 ClickHouse冷热分离命令简介 父主题: ClickHouse集群管理
HBase集群写入数据大小不能超过多少? 问题现象 HBase集群大规模并行写入数据时,写入数据到一半卡住,无法写入数据。 原因分析 数据迁移单个请求写入数据太大,导致报错。 处理方法 建议单次写入不超过2M,单条不超过200k。 父主题: 数据读写类
修改数据迁移任务 登录表格存储服务管理控制台。 单击管理控制台左上角的,选择区域。 进入集群管理页面,选择集群进入集群详情页面。 单击数据迁移进入数据迁移管理页面。 单击操作列“修改”,进入修改任务页面。 修改参数后,单击确定。 查看任务详情 登录表格存储服务管理控制台。 单击管理控制台左上角的,选择区域。
Doris数据表和数据模型 数据表 数据模型 最佳实践 父主题: 建表