检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
FE的查询连接端口,可以通过登录FusionInsight Manager,选择“集群 > 服务 > Doris > 配置”,查询Doris服务的“query_port”参数获取。 Doris FE实例IP地址,可以通过登录FusionInsight Manager,选择“集群 > 服务 > Doris > 实例”,查看任一FE的业务IP地址。
查看JournalNode实例是否启动。 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,在告警列表中单击此告警。 查看“定位信息”,获取告警产生的JournalNode节点IP地址。 选择“集群 > 待操作集群的名称 > 服务 > HDFS > 实例”,在实例列表中查看告警
xec-*.jar”依赖包,可从Hive服务的安装目录下获取,例如在“${BIGDATA_HOME}/components/FusionInsight_HD_*/Hive/disaster/plugin/lib/”目录下获取。 样例代码 以下为UDF示例代码: 其中,xxx通常为程序开发的组织名称。
UI上进入到Topology界面,再单击进入要调试组件界面。 图1 进入拓扑的Component界面 在组件页面获取worker进程运行的主机ip地址,如果有多个则任选一个。 图2 获取Worker运行的主机 打开IDEA工程,在菜单栏中选择“Run > Edit Configurations”。
MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 在IntelliJ IDEA中查看应用程序运行情况。 通过MapReduce日志获取应用程序运行情况。 登录MapReduce WebUI查看应用程序运行情况。 登录Yarn WebUI查看应用程序运行情况。 在MapRe
背景信息 获取HBase开发样例工程,将工程导入到IntelliJ IDEA开始样例学习。 前提条件 确保本地PC的时间与集群的时间差要小于5分钟,若无法确定,请联系系统管理员。集群的时间可通过FusionInsight Manager页面右下角查看。 操作步骤 参考获取MRS应用
首次使用账号需要修改密码。 初始化MRS集群用户密码对系统的影响 初始化MRS集群用户密码后,如果以前下载过用户认证文件,则需要重新下载并获取keytab文件。 初始化“人机”用户密码 MRS 3.x及之后版本: 登录FusionInsight Manager。 选择“系统 > 权限
namenode.name.dir”可获取,例如/srv/BigData/namenode/current),得到最新的FSImage文件的序号。一般如下: 查看各JournalNode的数据目录(查看配置项“dfs.journalnode.edits.dir”可获取,例如/srv/BigDa
机后,不能提供Admin接口功能和实时写入接口功能,只能提供Get、Scan查询服务。 操作步骤 参考准备连接HBase集群配置文件章节,获取HBase主集群客户端配置文件“core-site.xml”、“hbase-site.xml”、“hdfs-site.xml”,并将其放置
在网络拥塞的情况下,这个特性可以避免客户端由于无限等待服务端的返回而挂起。使用方式如下: 在执行“DriverManager.getConnection”方法获取JDBC连接前,添加“DriverManager.setLoginTimeout(n)”方法来设置超时时长,其中n表示等待服务返回的超时时
的路由信息之前,FusionInsight Manager页面无法登录,集群运行不受影响。 修改MRS集群Manager路由表前提条件 已获取待创建路由的相关信息。 禁用系统创建的路由信息步骤 以omm用户登录到集群主管理节点。执行以下命令,禁用系统创建的路由信息。 cd ${B
option(TABLE_NAME, tableName). mode(Overwrite). save(basePath) 查询Hudi表。 注册临时表并查询: val roViewDF = spark.read.format("org.apache.hudi").load(basePath
/opt/client/conf”。 “hbase-site.xml”从HBase客户端获取,“hiveclient.properties”和“hive-site.xml”从Hive客户端获取。 在Linux环境中添加样例工程运行所需的classpath,例如 export YA
Spark任务提交失败 问题现象 Spark提交任务直接提示无法提交任务。 Spark提示无法获取到yarn的相关jar包。 提示多次提交一个文件。 原因分析 问题1: 最常见的无法提交任务原因是认证失败, 还有可能是参数设置不正确。 问题2: 集群默认会把分析节点的hadoop
MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 在IntelliJ IDEA中查看应用程序运行情况。 通过MapReduce日志获取应用程序运行情况。 登录MapReduce WebUI查看应用程序运行情况。 登录Yarn WebUI查看应用程序运行情况。 在MapRe
/opt/client/conf”。 “hbase-site.xml”从HBase客户端获取,“hiveclient.properties”和“hive-site.xml”从Hive客户端获取。 在Linux环境中添加样例工程运行所需的classpath,例如 export YA
其WebUI上提供了MapReduce作业关键步骤的诊断信息,对于一个已经提交到YARN上的MapReduce任务,用户可以通过该诊断信息获取当前作业的状态以及处于该状态的原因。 具体操作:在公有云管理控制台,选择“基本信息 > Yarn监控信息”进入Web界面,单击提交的Map
查看OpenTSDB应用调测结果 操作场景 OpenTSDB样例程序运行完后,可直接通过运行结果查看应用程序运行情况,也可以通过运行日志获取应用运行情况。 操作步骤 运行结果会有如下成功信息: 2019-06-27 14:05:20,713 INFO [main] examples
查看OpenTSDB应用调测结果 操作场景 OpenTSDB样例程序运行完后,可直接通过运行结果查看应用程序运行情况,也可以通过运行日志获取应用运行情况。 操作步骤 运行结果会有如下成功信息: 2019-06-27 14:05:20,713 INFO [main] examples
Python样例代码 功能简介 通过连接zookeeper上的对应znode获取到当前主JDBCServer的IP和PORT,然后使用pyhive连接到这个JDBCServer,从而实现在JDBCServer-ha模式下,出现主备倒换后不需要修改代码依旧就能直接访问新的主JDBCServer服务。