检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
实例时该配置默认使用节点业务IP)。 转换过程中,依赖TimelineServer角色会出现配置过期,需要重启配置过期的实例。 操作步骤 登录FusionInsight Manager界面,选择“集群 > 服务 > Yarn > 配置”,打开Yarn服务配置页面。 修改配置项“T
集群可接收新的Storm任务,但是无法运行。 可能原因 集群中Supervisor处于异常状态。 处理步骤 检查Supervisor状态。 登录MRS集群详情页面,选择“组件管理”。 选择“Storm > Supervisor”,进入Storm服务管理页面。 查看“角色”中是否存在状态为故障或者是正在恢复
DynamoDB的number在Hive表中用什么类型比较好? Hive查询数据是否支持导出? Hive使用beeline -e执行多条语句报错如何处理? Hue连接HiveServer报错“over max user connections”如何处理? 如何查看MRS Hive元数据? 如何重置MRS
principal="super@<系统域名>" useTicketCache=false debug=false; }; 配置描述 在Spark客户端的“spark-defaults.conf”配置文件中进行设置。 表1 参数说明 参数 说明 默认值 spark.yarn.security
在调用作业相关接口的时候,部分URL中需要填入集群ID(cluster_id),所以需要先在管理控制台上获取到集群ID。集群ID获取步骤如下: 登录MRS管理控制台。 选择“现有集群”,单击待操作集群的集群名称,进入集群详情页面。 选择“概览”页签,在基本信息区域获取“集群ID”。 图1
不包括租户自动创建的角色)。 MRS 2.x及之前版本,Manager最大支持的角色数为1000。 添加角色 MRS 3.x及之后版本: 登录Manager,选择“系统 > 权限 > 角色”。 单击“添加角色”,然后在“角色名称”和“描述”输入角色名字与描述。 “角色名称”由数字
examples.MyRegistrator") val sc = new SparkContext(conf) // 建立连接hbase的配置参数,此时需要保证hbase-site.xml在classpath中 val hbConf = HBaseConfiguration
MyRegistrator"); JavaSparkContext jsc = new JavaSparkContext(conf); // 建立连接hbase的配置参数,此时需要保证hbase-site.xml在classpath中 Configuration hbConf =
examples.MyRegistrator") val sc = new SparkContext(conf) // 建立连接hbase的配置参数,此时需要保证hbase-site.xml在classpath中 val hbConf = HBaseConfiguration
MyRegistrator"); JavaSparkContext jsc = new JavaSparkContext(conf); // 建立连接hbase的配置参数,此时需要保证hbase-site.xml在classpath中 Configuration hbConf =
examples.MyRegistrator") val sc = new SparkContext(conf) // 建立连接hbase的配置参数,此时需要保证hbase-site.xml在classpath中 val hbConf = HBaseConfiguration
000个输入文件。在输入的文件数超出此限制时则会发生此错误。 解决办法 进入Hive服务配置页面: MRS 3.x之前版本,单击集群名称,登录集群详情页面,选择“组件管理 > Hive > 服务配置”,单击“基础配置”下拉菜单,选择“全部配置”。 如果集群详情页面没有“组件管理”
TezUI 否 Yarn ResourceManager 是 NodeManager Zookeeper Quorumpeer 是 安装滚动补丁 登录MRS管理控制台。 选择“现有集群”,选中一集群并单击集群名,进入集群基本信息页面。 进入“补丁管理”页面,在操作列表中单击“安装”。 进
副本,在没有故障的磁盘中引起不必要的块复制。 为了防止此情况,用户可以通过配置DataNodes来承受dfs.data.dir目录的故障。登录Manager,选择“集群 > 服务 > HDFS > 配置 > 全部配置”搜索参数“dfs.datanode.failed.volumes
副本,在没有故障的磁盘中引起不必要的块复制。 为了防止此情况,用户可以通过配置DataNodes来承受dfs.data.dir目录的故障。登录Manager,选择“集群 > 服务 > HDFS > 配置 > 全部配置”搜索参数“dfs.datanode.failed.volumes
出导致的,即物理内存溢出导致被NodeManager kill。 解决方案: 将ApplicationMaster的内存配置调大,在客户端“客户端安装路径/Yarn/config/mapred-site.xml”配置文件中优化如下参数: “yarn.app.mapreduce.am
如果需要对指定分区进行clustering,参考格式:predicate => "dt = '2021-08-28'" 系统响应 可在客户端中查看查询结果。 父主题: Hudi CALL COMMAND语法说明
8/.*?log.*?', merge => false, limit => 1); 注意事项 仅MOR表会用到此命令。 系统响应 可在客户端中查看查询结果。 父主题: Hudi CALL COMMAND语法说明
Object [type=DATABASE, name=xxx]] 可能原因 CDL业务运行用户无权限在其他用户创建的数据库中创建表。 处理步骤 登录FusionInsight Manager,选择“系统 > 角色 > 添加角色”,填写角色名称,在“配置资源权限”表格中选择“待操作的集群名称
Impala对接外部LDAP 本操作适用于MRS 3.1.0及之后版本。 登录Manager。 在Manager界面,选择“集群 > 待操作集群的名称 > 服务 > Impala > 配置 > 全部配置 > Impalad(角色) > LDAP”。 配置如下参数的值。 表1 参数配置