检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在业务规划时,不同业务归属于不同数据库,便于后续对应用户关联的数据库下表、视图等数据库对象权限的分离管理和维护。 业务隔离设计-不要在system库中创建业务表 system数据库是ClickHouse默认的系统数据库,默认数据库中的系统表记录的是系统的配置、元数据等的信息数据。 业
登录故障RegionServer所在节点,jps查看RegionServer进程没有启动,在Manager上手动重启故障的RegionServer实例失败,查看对应RegionServer节点/var/log/Bigdata/hbase/rs/hbase-omm-regionserver-node-ana-coreqRvt
Kafka用户权限说明 操作场景 在启用Kerberos认证的集群中,用户使用Kafka前需要拥有对应的权限。MRS集群支持将Kafka的使用权限,授予不同用户。 Kafka默认用户组如表1所示。 在MRS 3.x及之后版本中,Kafka支持两种鉴权插件:“Kafka开源自带鉴权插件”和“Ranger鉴权插件”。
运行过程中内存不足,服务端对客户端的响应过慢。在RegionServer的配置文件“hbase-site.xml”中需要调整如下对应的内存分配参数。 表1 RegionServer内存调整参数 参数 描述 默认值 GC_OPTS 在启动参数中给RegionServer分配的初始内存和最大内存。
请参见如何调用API。 URI DELETE /v1.1/{project_id}/clusters/{cluster_id}/tags/{key} 表1 路径参数 参数 是否必选 参数类型 描述 cluster_id 是 String 参数解释: 集群ID。如果指定集群ID,则获取该集群做
请参见如何调用API。 URI DELETE /v2/{project_id}/data-connectors/{connector_id} 表1 路径参数 参数 是否必选 参数类型 描述 connector_id 是 String 参数解释: 连接ID。获取方法,请参见获取连接ID。
password:userName对应的用户密码。 webUrl:Manager首页地址。 填写“UserInfo.properties”文件中的参数,注意填写的准确性,可以仿照以下参数示例进行填写,其中,“IP_Address”填写FusionInsight Manager对应的浮动IP地址。
修改hostname后导致WebHCat启动失败 问题背景与现象 用户修改hostname导致WebHCat启动失败。 查看对应节点WebHCat启动日志( /var/log/Bigdata/hive/webhcat/hive.log),发现报如下错误: 原因分析 MRS Web
Trash目录,若该目录没有权限则出现403报错。 解决方法 方案一: 使用hadoop fs -rm -skipTrash命令来删除文件。 方案二: 在集群对应的委托中添加访问.Trash目录的权限。 在集群“概览”页签中,查询并记录集群所绑定的委托名称。 登录IAM服务控制台。 选择“权限 > 创建自定义策略”。
写参数。 配置“基本配置”,填写数据源名称,选择数据源类型“HetuEngine”。 配置“HetuEngine配置”,参数配置请参考表1。 表1 HetuEngine配置 参数 描述 取值样例 驱动 默认“hsfabric-initial”。 hsfabric-initial 用户名
user用户密码 Description 描述信息。 xxx 表3 Kafka数据连接配置参数 参数名称 描述 示例 Link Type 连接类型。 kafka Name 连接配置名称。 kafkalink Description 描述信息。 - 表4 Hudi数据连接配置参数 参数名称 描述 示例
使用S3表引擎 登录主OMS节点。 执行以下命令创建表。 CREATE TABLE test1_s3 ('name' String, 'age' int) ENGINE = S3(path, [ak, sk,] format, [compression]) 执行以下命令查询表。 select
运行过程中内存不足,服务端对客户端的响应过慢。在RegionServer的配置文件“hbase-site.xml”中需要调整如下对应的内存分配参数。 表1 RegionServer内存调整参数 参数 描述 默认值 GC_OPTS 在启动参数中给RegionServer分配的初始内存和最大内存。
OpenTSDB HTTP API接口介绍 OpenTSDB提供了基于HTTP或HTTPS的应用程序接口。请求方式是通过向资源对应的路径发送标准的HTTP请求,请求包含GET、POST方法。它的接口与开源OpenTSDB保持一致,请参见https://opentsdb.net/d
问题现象 使用MRS Hive执行一条SQL,有如下报错: 图1 使用MRS Hive执行SQL报错 原因分析 查看HiveServer日志,在对应时间点,有如下的报错信息。 图2 HiveServer日志 在如上报错信息中未发现重要信息,但从堆栈中发现metadata字样,怀疑报错是和MetaStore有关。
hdfs”关键字确认Flume Sink是否是HDFS类型。 是,执行2。 否,执行3。 在FusionInsight Manager的告警列表中查看是否有“HDFS服务不可用”告警产生,服务列表中HDFS是否已停止。 是,如果有告警参考ALM-14000 HDFS服务不可用”的处理步骤处理该故障;如果HDFS已停止,启动HDFS服务,执行7。
Source Avro Source监测Avro端口,接收外部Avro客户端数据并放入配置的Channel中。常用配置如表1所示: 图1 Avro Source 表1 Avro Source常用配置 参数 默认值 描述 channels - 与之相连的Channel,可以配置多个。用空格隔开。
User和Data Source User键值对的形式配置多个HetuEngine的用户对应上面多个用户的其中一个。当使用不同的HetuEngine用户访问GaussDB时,可对应用不同的GaussDB的用户和密码。 表3 HetuEngine-GaussDB用户映射配置 名称 描述 HetuEngine
多源数据目录功能在原有的元数据层级上,新增一层Catalog,构成Catalog -> Database -> Table的三层元数据层级。其中,Catalog可以直接对应到外部数据目录。 基础概念 Internal Catalog Doris原有的Database和Table都将归属于Internal Catalog。Internal
使用S3表引擎 登录主OMS节点。 执行以下命令创建表。 CREATE TABLE test1_s3 ('name' String, 'age' int) ENGINE = S3(path, [ak, sk,] format, [compression]) 执行以下命令查询表。 select