检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
“Apply”后,单击“OK”,如图5所示。 图5 设置Eclipse的编码格式 打开样例工程中的“conf/hbase-site.xml”文件,修改“hbase.zookeeper.quorum”的值为正确的Zookeeper地址。 <property> <name>hbase
访问ThriftServer操作表 操作场景 用户根据指定的host和port访问对应的ThriftServer实例,进行HBase表的创建,删除等操作。 前提条件 集群已启用ThriftServer并从集群详情页面获取到ThriftServer IP。 已下载Thrift安装包,安装包下载地址:链接。
GRANT 'role1','role2' TO 'jack'@'%'; 表2 参数说明 参数 说明 role 代表创建的角色。 jack 代表新建的用户名。 撤销分配给用户的角色。 REVOKE 'role1' FROM 'candy'; 删除用户。 DROP USER'Jack'; 父主题:
单击“Finish”,完成导出Jar包。 准备依赖的Jar包和配置文件。 在Linux环境新建目录,例如“/opt/test”,并创建子目录“lib”和“conf”。将样例工程中“lib”的Jar包,以及1导出的Jar包,上传到Linux的“lib”目录。将样例工程中“conf”的配置文件上传到Linux中“conf”目录。
单击“Finish”,完成导出Jar包。 执行Jar包。 在Linux客户端下执行Jar包的时候,先将应用开发环境中生成的Jar包拷贝上传至客户端安装目录的“lib”目录中,并确保Jar包的文件权限与其它文件相同。 用安装用户切换到客户端目录的“bin”目录下,然后运行如下命令使Jar包执行: [Ruby@
根据连接的数据源类型,用户可以自定义连接名。 说明: 必须以字母开头,由字母、数字、中划线组成,不能包含其他的特殊字符,并且长度为4~64个字符。 连接器 Doris支持的外部数据目录组件,目前支持可选:Hive。 Hadoop类型 Doris支持hadoop组件,目前支持的可选:MRS。
根据连接的数据源类型,用户可以自定义连接名。 说明: 必须以字母开头,由字母、数字、中划线组成,不能包含其他的特殊字符,并且长度为4~64个字符。 连接器 Doris支持的外部数据目录组件,目前支持可选:Hive。 Hadoop类型 Doris支持hadoop组件,目前支持的可选:MRS。
IP MRS Manager的浮动IP地址,选择连接的集群后,ip地址会自动填充。 认证类型 MRS集群鉴权类型,安全集群可选“KERBEROS”,非安全集群可选“SIMPLE”。选择连接的集群后,安全类型会自动填充。 连接器版本 MRS集群的数据源组件的版本,HIVE支持3版本,可选:3
IP MRS Manager的浮动IP地址,选择连接的集群后,ip地址会自动填充。 认证类型 MRS集群鉴权类型,安全集群可选“KERBEROS”,非安全集群可选“SIMPLE”。选择连接的集群后,安全类型会自动填充。 连接器版本 MRS集群的数据源组件的版本,HIVE支持3版本,可选:3
单击“Flink WebUI”右侧的链接,访问Flink WebUI。 在MRS Flink WebUI中创建Flink任务产生数据。 单击作业管理中的“新建作业”,弹出新建作业页面。 填写参数,单击“确定”,建立Flink SQL作业。如果修改SQL,单击操作列的“开发”,进入SQL页面添加以下命令。
ClickHouse面向OLAP场景提供高效的数据分析能力,支持通过MySQL等数据库引擎将远程数据库服务器中的表映射到ClickHouse集群中,后续可以在ClickHouse中进行数据分析。以下操作通过ClickHouse集群和RDS服务下的MySQL数据库实例对接进行举例说明。 前提条件
[ENGINE = engine_name]; 表2 参数说明 参数 说明 db 数据库的名称,默认为当前选择的数据库。 table_name1 被复制表结构的源表。 table_name2 新创建的表。 ON CLUSTER ClickHouse集群名 在每一个节点上都创建一个表,固定为ON
ClickHouse集群名。 SELECT ... SELECT子句。当数据写入视图中SELECT子句所指定的源表时,插入的数据会通过SELECT子句查询进行转换并将最终结果插入到视图中。 示例: 创建源表。 create table DB.table1 ON CLUSTER default_cluster
Metastore的元数据服务,Doris可以自动获取Hive的库表信息,并进行数据查询。 除了Hive外,很多其他系统也会使用Hive Metastore存储元数据。所以通过Hive Catalog,我们不仅能访问Hive,也能访问使用Hive Metastore作为元数据存储的系统。 创建。
准备弹性云服务 创建ECS 购买弹性云服务器。 登录云控制台。 单击管理控制台左上角的,选择区域。 单击左侧的服务列表图标,选择“计算 > 弹性云服务器 ECS”。 单击“购买弹性云服务器”。 配置弹性云服务器参数。 选择CPU架构和规格。 图1 规格图 选择镜像和磁盘规格。 图2
准备弹性云服务 创建ECS 购买弹性云服务器。 登录控制台。 单击管理控制台左上角的,选择区域。 单击左侧的服务列表图标,选择“计算 > 弹性云服务器 ECS”。 单击“购买弹性云服务器”。 配置弹性云服务器参数。 选择CPU架构和规格。 图1 规格图 选择镜像和磁盘规格。 图2
项目ID可以通过调用查询指定条件下的项目信息API获取。 获取项目ID的接口为“GET https://{Endpoint}/v3/projects”,其中{Endpoint}为IAM的终端节点,可以从地区和终端节点获取。接口的认证鉴权请参见认证鉴权。 响应示例如下,其中projects下的“id”即为“name”所对应区域的项目ID。
数据迁移过程中原表默认为只读状态。 数据迁移的时候数据首先会保存在临时表中,执行的时候用迁移的数据表替换原表,该过程中可能读取到错误的数据,切换时间为秒级。 数据迁移过程中可能由于集群问题导致此过程暂停,根据报错修复集群继续执行任务。 数据迁移的时候,源节点和重分布节点必须存在相同表,这样才可以进行数据迁移。
用户需要更多的计算资源或存储资源满足业务需要时,可以在管理控制台进行扩容操作,对已经创建的集群增加节点数(节点扩容)或对集群的节点增加磁盘容量(纵向扩容)。Doris可以很方便地对节点FE、BE进行节点扩容。一般情况下,可以通过将FE扩展至3个以上实现FE的高可用,且FE节点的扩容过程
项目ID。获取方法,请参见获取项目ID。 cluster_id 是 String 集群ID。 获取方法:在CloudTable控制台,单击要查询的集群名称进入集群详情页,获取“集群ID"。请参见获取集群ID。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Language