检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
下所示: log4j.rootCategory=DEBUG, sparklog DEBUG级别生效会有一定的时延。 父主题: Spark运维管理
Session-1 is closing | IoTDB_AUDIT_LOGGER (TSServiceImpl.java:326) 父主题: IoTDB运维管理
DAGScheduler: Final stage: Stage 0(reduce at SparkPi.scala:35) 父主题: Spark运维管理
spark.history.store.maxDiskUsage JobHistory本地磁盘缓存的最大可用空间 10g 父主题: Spark运维管理
“haclusterX”为新增的自定义参数“dfs.namenode.rpc-address.haclusterX”中的“haclusterX” 父主题: Hive运维管理
WebUI支持以下功能: 使用系统管理可以支持以下功能: 使用集群连接管理可以创建、查看、编辑、测试和删除集群连接。 使用数据连接管理可以创建、查看、编辑、测试和删除数据连接。数据连接类型包含HDFS、Kafka等。 使用应用管理可以创建、查看、删除应用。 使用流表管理可以新建、查看、编辑和删除流表。
重启服务”,重启Yarn服务。 界面提示“操作成功。”,单击“完成”,Yarn服务启动成功。 登录另外一个集群,重复以上操作。 父主题: HBase运维管理
第三方jar包跨平台(x86、TaiShan)支持 问题 用户自己写的jar包(比如自定义udf包)区分x86和TaiShan版本,如何让spark2x支持其正常运行。 回答 第三方jar包(例如自定义udf)区分x86和TaiShan版本时,混合使用方案: 进入到服务端spark2x
管理Kafka Topic 查看Kafka Topic信息 修改Kafka Topic配置 增加Kafka Topic分区 管理Kafka Topic中的消息 查看Kafka数据生产消费详情 父主题: 使用Kafka
assignment.auto.recovery.enabled 配置该参数以启用或禁用region分配恢复线程功能。 true 父主题: HBase运维管理
assignment.auto.recovery.enabled 配置该参数以启用或禁用Region分配恢复线程功能。 true 父主题: HBase运维管理
KERBEROS:安全集群,表示Kerberos认证开启,普通用户无权限使用MRS集群的“文件管理”和“作业管理”功能,并且无法查看Hadoop、Spark的作业记录以及集群资源使用情况。如果需要使用集群更多功能,需要找Manager的管理员分配权限。 默认取值: 不涉及 manager_admin_password
ckHouse_*/*_ClickHouseServer/etc/ vi users.xml 如下所示: 父主题: ClickHouse运维管理
值,则直接将任务强制终止。 设置为true时,进行物理内存检测; 设置为false时,不进行物理内存检测。 true 父主题: Yarn运维管理
值,则直接将任务强制终止。 设置为true时,进行物理内存检测; 设置为false时,不进行物理内存检测。 true 父主题: Yarn运维管理
标签管理接口 集群操作默认标签 查询默认标签状态 查询标签配额 父主题: API V2
HBase容灾集群业务切换指导 操作场景 MRS集群管理员可配置HBase集群容灾功能,以提高系统可用性。容灾环境中的主集群完全故障影响HBase上层应用连接时,需要为HBase上层应用配置备集群信息,才可以使得该应用在备集群上运行。 本章节适用于MRS 3.x及之后版本。 对系统的影响
使客户端访问其他可用的正常节点。在为集群安装补丁的场景中,也支持排除指定节点不安装补丁。 隔离主机仅支持隔离非管理节点。 该任务指导用户在MRS上根据实际业务或运维规划手工将主机隔离。 隔离MRS集群节点对系统的影响 主机隔离后该主机上的所有角色实例将被停止,且不能对主机及主机
使用永洪BI访问MRS HetuEngine 应用场景 永洪BI是一款一站式大数据BI平台,全面覆盖数据分析过程中的各个环节,轻松完成全流程数据分析任务,包括数据采集、清洗、整合、存储、计算、建模、训练、展现、协作等,极大降低了实施、集成、培训的成本。 本章节以Yonghong Desktop
第三方jar包跨平台(x86、TaiShan)支持 问题 用户自己写的jar包(例如自定义udf包)区分x86和TaiShan版本,如何让Spark2x支持其正常运行。 回答 第三方jar包(例如自定义udf)区分x86和TaiShan版本时,混合使用方案: 进入到服务端Spark2x