检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
d”的值设置为“false”。 设置方法:如果未启动beeline,则执行beeline --entireLineAsCommand=false命令;如果已启动beeline,则在beeline中执行!set entireLineAsCommand false命令。 设置完成后,
执行以下命令来查看当前ommdba用户密码设置信息: chage -l ommdba 检查系统提示信息,是否用户已过期。 查找“Password expires”对应值,查看密码设置是否即将过期。 查找“Account expires”对应值,查看用户设置是否即将过期。 如果参数值为“ne
HDFS访问OBS 功能简介 访问OBS过程为: 设置“fs.obs.access.key”和“fs.obs.secret.key”。 由此FileSystem实例可以读取、新增和删除各类资源。 不支持追加操作。 前提条件 对接OBS前需要提前在OBS服务中创建相关目录,并确保访问用户具有对应目录的访问操作权限。
负责向调用该类的scala应用提供Spark的各种功能,如连接Spark集群,创建RDD等。 SparkConf:Spark应用配置类,如设置应用名称,执行模式,executor内存等。 RDD(Resilient Distributed Dataset):用于在Spark应用程
通过KuduClient.newScannerBuilder(KuduTable table)方法生成一个KuduScanner对象,然后再通过设置谓词条件从Kudu表里过滤读取数据。 代码样例 如下是读取数据的代码片段: KuduTable table = client.openTable(tableName);
ID savepoint恢复 如果用户不手动设置ID,系统将自动给每个算子分配一个ID。只要该算子的ID不改变,即可从savepoint恢复,ID的产生取决于用户的应用代码,并且对应用代码的结构十分敏感。因此,强烈推荐用户手动为每个算子设置ID。Savepoint产生的数据将被保存
负责向调用该类的scala应用提供Spark的各种功能,如连接Spark集群,创建RDD等。 SparkConf:Spark应用配置类,如设置应用名称,执行模式,executor内存等。 RDD(Resilient Distributed Dataset):用于在Spark应用程
Server日志,报错: “Region‘3b3ae24c65fc5094bc2acfebaa7a56de’”打开失败,Region状态被设置为FAILED_OPEN。 “Region‘b7b3faab86527b88a92f2a248a54d3dc’”下的一个文件找不到报错Fi
管理权限,MRS 1.8.0及之后版本的所有集群均拥有角色管理权限。 MRS 2.1.0及之前版本:在MRS Manager页面选择“系统设置”>“配置”>“权限配置”查询。 MRS 3.x及之后版本:在FusionInsight Manager页面选择“系统 > 权限”查询。 权限配置的相关使用方法请参考权限管理。
Users/Groups/Roles”,在“Users”用户列表中,单击待修改类型的用户名。 设置“Select Role”配置项为待修改的类型。 单击“Save”。 创建Ranger Role Ranger管理员在设置组件的权限访问策略时,可基于用户、用户组或者Role灵活配置,其中用户与用户组
log”日志中一直滚动报错: wait catalog to be ready. FE type UNKNOWN 原因分析 FE安装节点有多个网卡IP,没有正确设置“priority_network”参数导致FE启动时匹配了错误的IP地址。 集群内多数Follower FE节点未启动,例如有3个Follower
Colocation接口,可以将存在关联关系或者可能进行关联操作的数据存放在相同的存储节点上。Hive支持HDFS的Colocation功能,即在创建Hive表时,设置表文件分布的locator信息,当使用insert语句向该表中插入数据时会将该表的数据文件存放在相同的存储节点上(不支持其他数据导入方式)
如下图所示: 通过FusionInsight Manager服务配置和租户管理页面的操作,用户可以实现设置服务内存限额、创建租户、关联ClickHouse服务、绑定逻辑集群、设置租户可用内存和CPU优先级、租户关联用户等操作。Manager侧和ClickHouse侧的角色关联关系如下图所示:
建表必须指定primaryKey和preCombineField。 Hudi表提供了数据更新的能力和幂等写入的能力,该能力要求数据记录必须设置主键用来识别重复数据和更新操作。不指定主键会导致表丢失数据更新能力,不指定preCombineField会导致主键重复。 参数名称 参数描述
3次超过阈值(默认12秒)时产生该告警。当ConfigNode垃圾回收(GC)时间小于阈值时,告警清除。 可通过“运维 > 告警 > 阈值设置 > 待操作集群的名称 > IoTDB > GC > ConfigNode垃圾回收(GC)总时间 (ConfigNode)”来修改阈值,阈值每次增长20%。
时间,当检测到IoTDBServer进程的垃圾回收(GC)连续3次超过阈值(默认12秒)时产生该告警。用户可通过“运维 > 告警 > 阈值设置 > 待操作集群的名称 > IoTDB > GC > IoTDBServer垃圾回收(GC)总时间 (IoTDBServer)”来修改阈值
DiskBalancer磁盘均衡 配置HDFS Mover命令迁移数据 配置HDFS文件目录标签策略(NodeLabel) 配置NameNode内存参数 设置HBase和HDFS的句柄数限制 配置HDFS单目录文件数量 HDFS企业级能力增强 HDFS性能调优 HDFS运维管理 HDFS常见问题
Users/Groups/Roles”,在“Users”用户列表中,单击待修改类型的用户名。 设置“Select Role”配置项为待修改的类型。 单击“Save”。 创建Ranger Role Ranger管理员在设置组件的权限访问策略时,可基于用户、用户组或者Role灵活配置,其中用户与用户组
配置Hive业务使用其他组件的用户权限 操作场景 Hive业务还可能需要关联使用其他组件,例如HQL语句触发MapReduce任务需要设置Yarn权限,或者Hive over HBase的场景需要HBase权限。以下介绍Hive关联Yarn和Hive over HBase两个场景下的操作。
Colocation接口,可以将存在关联关系或者可能进行关联操作的数据存放在相同的存储节点上。Hive支持HDFS的Colocation功能,即在创建Hive表时,设置表文件分布的locator信息,当使用insert语句向该表中插入数据时会将该表的数据文件存放在相同的存储节点上(不支持其他数据导入方式)