检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
手动指定运行Yarn任务的用户 配置场景 目前YARN支持启动NodeManager的用户运行所有用户提交的任务,也支持以提交任务的用户运行任务。 配置描述 在Manager系统中,选择“集群 > 待操作集群的名称 > 服务 > Yarn > 配置”,选择“全部配置”。在搜索框中输入参数名称。
x之前版本,单击集群名称,登录集群详情页面,选择“组件管理 > Hive > 服务配置”,单击“基础配置”下拉菜单,选择“全部配置”。 若集群详情页面没有“组件管理”页签,请先完成IAM用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。 MRS
告警”,查看“告警ID”为“19025”的告警的“定位信息”中上报该告警的服务名。 以客户端安装用户登录安装了HDFS和HBase客户端的节点,并执行以下命令: cd 客户端安装目录 source bigdata_env kinit 组件业务用户(若集群未启用Kerberos认证(普通模式),请跳过该操作) 查看损坏的StoreFile文件。
告警附加信息中显示“CA Certificate”,使用PuTTY工具以omm用户登录主OMS管理节点,执行3。 告警附加信息中显示“HA root Certificate”,查看“定位信息”获取告警所在节点主机名,使用PuTTY工具以omm用户登录该主机,执行4。 告警附加信息中显示“HA server
notallowlocation”,“值”为“true”。 单击“保存”保存配置。单击“实例”,勾选所有Hive实例,选择“更多 > 重启实例”,输入当前用户密码,单击“确定”重启所有Hive实例。 是否需要在Spark/Spark2x客户端中启用此功能? 是,重新下载并安装Spark/Spark2x客户端。
个字符。 默认取值: 不涉及 表2 Query参数 参数 是否必选 参数类型 描述 path 是 String 参数解释: 文件目录。比如访问“/tmp/test”目录列表,此处必须是目录,整体URI为/v2/{project_id}/clusters/{cluster_id}/files
管理HetuEngine计算实例 配置HetuEngine资源组 配置HetuEngine Worker节点数量 配置HetuEngine维护实例 配置HetuEngine Coordinator运行的节点范围 导入导出HetuEngine计算实例配置 查看HetuEngine实例监控页面 查看HetuEngine
provider 指定获取访问OBS文件系统密钥的实现方式。 参数取值: com.huawei.mrs.MrsObsCredentialsProvider:通过MRS云服务委托获取凭证。 com.obs.services.EcsObsCredentialsProvider:通过ECS云服务获取AK/SK信息。
nm.logs} 【注意】请谨慎修改该项。如果配置不当,将造成服务不可用。当角色级别的该配置项修改后,所有实例级别的该配置项都将被修改。如果实例级别的配置项修改后,其他实例的该配置项的值保持不变。 %{@auto.detect.datapart.nm.logs} yarn.nodemanager
直接重启耗时约5分钟。 滚动重启 重启时客户端重试连接其他节点,不影响整体服务。 滚动重启10个节点耗时约30分钟。 Hive 直接重启 重启期间无法运行HiveSQL。 直接重启耗时约5分钟。 滚动重启 HiveServer滚动重启时,若仍有客户端连接到滚动重启的HiveServer上,客户端正在运行的任务将失败。
直接重启耗时约5分钟。 滚动重启 重启时客户端重试连接其他节点,不影响整体服务。 滚动重启10个节点耗时约30分钟。 Hive 直接重启 重启期间无法运行HiveSQL。 直接重启耗时约5分钟。 滚动重启 HiveServer滚动重启时,若仍有客户端连接到滚动重启的HiveServer上,客户端正在运行的任务将失败。
如何解除网络ACL的关联子网 操作场景 用户可根据自身网络需求,解除网络ACL与子网的关联关系。 操作步骤 登录管理控制台。 在服务列表中单击“网络 > 虚拟私有云”。 在左侧导航栏单击“访问控制 > 网络ACL”。 在右侧在“网络ACL”列表区域,选择网络ACL的名称列,单击您需要修改的网络ACL名称进入详情页面。
LEAST ONCE。 【示例】API方式设置Exactly once语义: env.getCheckpointConfig.setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE) 【示例】资源文件方式设置Exactly once语义: #
手动指定运行Yarn任务的用户 本章节适用于MRS 3.x及后续版本集群。 配置场景 目前Yarn支持启动NodeManager的用户运行所有用户提交的任务,也支持以提交任务的用户运行任务。 配置描述 在Manager系统中,选择“集群 > 服务 > Yarn > 配置”,选择“全部配置”。在搜索框中输入参数名称。
3完成后,资源释放给Job 1、Job 2继续执行。 用户可以在YARN中配置任务的优先级。任务优先级是通过ResourceManager的调度器实现的。 操作步骤 设置参数“mapreduce.job.priority”,使用命令行接口或API接口设置任务优先级。 命令行接口。 提交任务时,添加“-Dmapreduce
3完成后,资源释放给Job 1、Job 2继续执行。 用户可以在YARN中配置任务的优先级。任务优先级是通过ResourceManager的调度器实现的。 操作步骤 设置参数“mapreduce.job.priority”,使用命令行接口或API接口设置任务优先级。 命令行接口。 提交任务时,添加“-Dmapreduce
provider 指定获取访问OBS文件系统密钥的实现方式。 参数取值: com.huawei.mrs.MrsObsCredentialsProvider:通过MRS云服务委托获取凭证。 com.obs.services.EcsObsCredentialsProvider:通过ECS云服务获取AK/SK信息。
topic监控页面无数据。 SparkStreaming使用的scala版本与Kafka组件不一致,导致spark访问kafka失败。 SparkStreaming访问Kafka,只能读到一个分区。 HBase组件问题: HBase健康检查时,遇到非HBase问题引起的错误码与HBase本身的错误码有重合,导致误告警。
Core应用,尝试收集大量数据到Driver端,当Driver端内存不足时,应用挂起不退出 Spark应用名在使用yarn-cluster模式提交时不生效 如何使用IDEA远程调试 如何采用Java命令提交Spark应用 使用IBM JDK产生异常,提示“Problem performing GSS wrap”信息
用之前用户需要在“flink-conf.yaml”配置文件中配置ZooKeeper,配置ZooKeeper的参数如下: high-availability: zookeeper high-availability.zookeeper.quorum: ZooKeeperIP地址:2181