检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Sink是否故障。 确认Flume Sink是否是HDFS类型。 是,执行1.b。 否,执行1.c。 在MRS的告警列表中查看是否有“ALM-14000 HDFS服务不可用”告警产生,服务列表中HDFS服务是否已停止。 是,如果有告警参考ALM-14000 HDFS服务不可用(2.x及以前版本)
户可以访问表table1中“type='hiveuser1'”的数据: create view v1 as select * from table1 where type='hiveuser1'; 将视图v2授权给用户hiveuser2,hiveuser2用户可以访问表table
户可以访问表table1中“type='hiveuser1'”的数据: create view v1 as select * from table1 where type='hiveuser1'; 将视图v2授权给用户hiveuser2,hiveuser2用户可以访问表table
DESC查询表结构 本章节主要介绍ClickHouse查询表结构的SQL基本语法和使用说明。 基本语法 DESC|DESCRIBE TABLE [database_name.]table [INTO OUTFILE filename] [FORMAT format] 使用示例 例如查询表t1的表结构:
API向安全Topic生产消息基础上,实现了多线程Producer,可启动多个Producer线程,并通过指定相同key值的方式,使每个线程对应向特定Partition发送消息。 下面代码片段在com.huawei.bigdata.kafka.example.ProducerMul
报错信息 问题分析 登录集群Master节点,进入“/var/log/Bigdata”目录下的presto日志进行查找。 根据报错信息在到对应节点去查看presto worker实例的进程日志。 日志显示: java.lang.OutOfMemoryError: Java heap
如果登录的当前用户具有admin角色,请用set role admin来切换成admin角色操作。如果不具备admin角色,在Manager页面中给用户绑定对应角色的权限。 父主题: 使用Hive
系型数据库导入、导出数据。在连接关系型数据库前,需提前手动上传驱动。 操作步骤 修改关系型数据库对应的驱动jar包文件权限。 登录Loader服务的主备管理节点,获取关系型数据库对应的驱动jar包保存在Loader服务主备节点的lib路径:“${BIGDATA_HOME}/Fus
配置具备表select权限的用户可查看表结构 操作场景 使用Hive建表时,其他用户被授予select权限后,支持通过show create table查看表结构。 操作步骤 登录FusionInsight Manager页面,选择“集群 > 服务 > Hive > 配置 > 全部配置”。
安全模式下,KafkaUI对修改Topic Configs场景,需保证KafkaUI登录用户属于“kafkaadmin”用户组或者单独给用户授予对应操作权限,否则将会鉴权失败。 非安全模式下,KafkaUI对所有操作不作鉴权处理。 该章节仅适用MRS 3.x及之后版本。 使用Kafka客户端修改Kafka
Producer API使用样例基础上,实现了多线程Producer,可启动多个Producer线程,并通过指定相同key值的方式,使每个线程对应向特定Partition发送消息。 下面代码片段在com.huawei.bigdata.kafka.example.ProducerMul
onf”目录下创建hbaseclient.properties文件,文件中user.name对应新建的用户hbaseuser,userKeytabName和krb5ConfName值对应从3.2.2-准备开发用户中获取的认证相关文件名称,如下(未开启Kerberos认证集群可跳过此步):
API向安全Topic生产消息基础上,实现了多线程Producer,可启动多个Producer线程,并通过指定相同key值的方式,使每个线程对应向特定Partition发送消息。 下面代码片段在com.huawei.bigdata.kafka.example.ProducerMul
SQL防御规则 配置HetuEngine SQL防御操作场景 用户可以在Manager界面配置HetuEngine的SQL防御规则,根据业务调整对应SQL防御规则的参数。 配置HetuEngine SQL防御前提条件 已安装包含HetuEngine服务的集群客户端,安装目录如“/opt/hadoopclient”。
main(SparkSubmit.scala) 回答 Streaming Context启动时,如果应用设置了checkpoint,则需要对应用中的DStream checkpoint对象进行序列化,序列化时会用到dstream.context。 dstream.context是Streaming
安全模式下,KafkaUI对修改Topic Configs场景,需保证KafkaUI登录用户属于“kafkaadmin”用户组或者单独给用户授予对应操作权限,否则将会鉴权失败。 非安全模式下,KafkaUI对所有操作不作鉴权处理。 使用Kafka客户端修改Kafka Topic 进入ZooKeeper实例页面:
Kafka用户权限说明 操作场景 在启用Kerberos认证的集群中,用户使用Kafka前需要拥有对应的权限。MRS集群支持将Kafka的使用权限,授予不同用户。 Kafka默认用户组如表1所示。 Kafka支持两种鉴权插件:“Kafka开源自带鉴权插件”和“Ranger鉴权插件”。
需求,您可以变更集群的计费模式,对应的IaaS基础设施资源费用同步变更。MRS仅支持将按需计费集群转为包年/包月集群,支持该变更计费模式的MRS计费项如表1所示。将MRS集群的计费模式从按需计费转为包年/包月,可以让您享受一定程度的价格优惠。 表1 支持变更计费模式的MRS计费项
优化小文件场景下的Spark SQL性能 配置场景 Spark SQL的表中,经常会存在很多小文件(大小远小于HDFS块大小),每个小文件默认对应Spark中的一个Partition,也就是一个Task。在很多小文件场景下,Spark会起很多Task。当SQL逻辑中存在Shuff
消息头和消息体。 状态码是一组从1xx到5xx的数字代码,状态码表示了请求响应的状态,完整的状态码列表请参见状态码。 对于管理员创建IAM用户接口,如果调用后返回状态码为“201”,则表示请求成功。 响应消息头 对应请求消息头,响应同样也有消息头,如“Content-Type”。