检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
自定义”,参考表4配置参数。 单击“保存”,保存配置。 在MRS集群“组件管理”页签,查看是否存在“配置超期”的组件,如果存在请单击“操作”列的“重启”,重启相关组件。 重新下载并安装MRS集群完整客户端。具体操作请参考安装客户端。 如果需要在管理控制台执行作业提交操作,需要更新集群内置客户端配置文件。
43601 GraphBase GraphBase主备切换 次要 45002 HetuEngine QAS主备倒换 次要 45597 IoTDB Region 副本补齐事件 提示 45651 Flink FlinkServer主备切换 次要 父主题: 查看与配置MRS告警事件
自定义,请咨询系统管理员。如果集群为普通模式,执行su - omm切换到omm用户。执行cd命令进入客户端安装目录,然后执行source bigdata_env。如果集群采用安全版本,要进行安全认证。执行kinit hdfs命令,按提示输入密码。向MRS集群管理员获取密码。 执行以下命令,均衡数据分布:
Hive开源增强特性:支持基于HTTPS/HTTP协议的REST接口切换 WebHCat为Hive提供了对外可用的REST接口,开源社区版本默认使用HTTP协议。 MRS Hive支持使用更安全的HTTPS协议,并且可以在两种协议间自由切换。 Hive开源增强特性:支持开启Transform功能
在行的,查看该告警的主机地址。 以root用户登录告警所在主机,用户密码为安装前用户自定义,请咨询系统管理员。 执行命令su - omm,切换到omm用户。 执行命令vi $BIGDATA_LOG_HOME/controller/scriptlog/modify_manager_param
系统跳转至该集群详情页面。 图2 通信安全授权 单击“通信安全授权”右侧的开关关闭授权,在弹出窗口单击“确定”。 关闭授权后将导致集群状态变更为“网络通道未授权”,集群部分功能不可用,请谨慎操作。 图3 关闭通信安全授权 若用户已开启敏感操作保护(详见IAM服务的敏感操作),则输
buffer”,表示此问题是由JDK导致,需要如何解决? 回答 修复步骤如下: 在RegionServer启动失败的某个节点执行 su - omm,切换到omm用户。 在omm用户下执行java -XX:+PrintFlagsFinal -version |grep HeapBase,出现如下类似结果。
操作步骤 根据业务情况,准备好客户端,登录安装客户端的节点。 请根据客户端所在位置,参考安装客户端章节,登录安装客户端的节点。 执行以下命令,切换到客户端目录,例如“/opt/hadoopclient”。 cd /opt/hadoopclient 执行以下命令,配置环境变量。 source
spark-开头的目录 ARM环境python pipeline运行报139错误码 Structured Streaming 任务提交方式变更 常见jar包冲突处理方式 父主题: Spark2x开发指南(安全模式)
buffer”,表示此问题是由JDK导致,需要如何解决? 回答 修复步骤如下: 在RegionServer启动失败的某个节点执行 su - omm,切换到omm用户。 在omm用户下执行java -XX:+PrintFlagsFinal -version |grep HeapBase,出现如下类似结果。
spark-开头的目录 ARM环境python pipeline运行报139错误码 Structured Streaming 任务提交方式变更 常见jar包冲突处理方式 父主题: Spark2x开发指南(安全模式)
回滚补丁前检查 卸载补丁前需要手动进行相关检查。 检查所有节点管理平面网络是否互通 登录FusionInsight Manager界面,选择“运维 > 告警 > 告警”。 查看当前集群是否存在“ALM-12089 节点间网络互通异常”或“节点故障”等告警。 是,节点间网络不互通,请联系运维人员修复。
OSED状态的Region。 该操作仅MRS 3.3.0及之后版本支持。 处理步骤 以客户端安装用户登录到安装了HBase客户端的节点。 切换到客户端安装目录并配置环境变量: cd 客户端安装目录 source bigdata_env 如果集群已启用Kerberos认证(安全模式
“SELECT”、“INSERT”和“DELETE” 普通模式 无 操作步骤 以Hive客户端安装用户登录安装客户端的节点。 执行以下命令,切换到客户端安装目录,配置环境变量并认证用户。 cd 客户端安装目录 source bigdata_env kinit Hive业务用户(如果
统盘空间不足导致,请联系技术服务。 将历史备份数据移到数据盘的新目录中。 以root用户登录Master节点。 执行su - omm命令,切换到omm用户。 执行rm -rf /srv/BigData/LocalBackup命令,删除备份目录软连接。 执行mkdir -p /sr
RowCounter等命令,执行结果请在日志文件“HBase客户端安装目录/HBase/hbase/logs/hbase.log”中查看。 切换到HBase客户端安装目录,执行以下命令使配置生效。 cd HBase客户端安装目录 source HBase/component_env
sight Manager界面,选择“集群 > 服务 > Hive > 实例”查看。 登录WebHCat实例所在节的任一节点,执行以下命令切换到omm用户。 su - omm 执行以下命令查看是否存在WebHCat进程。 ps -ef|grep webhcat|grep -v grep
理账户被锁定。用户被锁定之后,5分钟后会自动解锁。 该操作仅适用于MRS 3.x及之后版本。 以omm用户登录主管理节点。 执行以下命令,切换到目录: cd ${BIGDATA_HOME}/om-server/om/ldapserver/ldapserver/local/script
Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器
Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器