检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
的样例代码文件夹中的/opt/impala_examples/conf文件夹,并在client.properties中填入impalad的ip地址。 在cmd或Intellij中执行mvn package ,在工程target目录下获取jar包,比如“impala-examples-mrs-2
"65382450e8f64ac0870cd180d14e684b", "name": "region_id", "description": "", "links": { "next": null,
登录FusionInsight Manager页面,选择“运维 > 告警 > 告警”,查看当前告警“定位信息”中的角色名以及确认主机名所在的IP地址。 扩容告警上报节点的磁盘容量。 扩容失败,或扩容后告警仍然没有消除,执行4。 收集故障信息 在FusionInsight Manager界面,选择“运维
登录FusionInsight Manager,选择“运维 > 告警 > 告警”,选中“告警ID”为“50225”的告警,查看“定位信息”中的角色名并确定实例的IP地址。 选择“集群 > 服务 > Doris > 实例”,单击告警上报的FE实例,查看实例的“运行状态”是否为“正在恢复” 是,执行3。 否,执行4。
sh ${BIGDATA_HOME}/OMSV100R001C00x8664/workspace0/ha/module/hacom/script/status_ha.sh OLdap资源在主节点为Active_normal状态,在备节点为Standby_normal状态表示正常:
表中,单击此告警所在行,在告警详情中,查看该告警的主机地址。 登录主管理节点。 执行以下命令检查故障节点是否可以访问: ping 故障主机IP地址 是,执行2。 否,执行1.d。 联系运维人员查看是否为网络故障。 是,执行2。 否,执行1.f。 修复网络故障,查看告警列表中,该告警是否已清除。
python-examples -R。 在python-examples/pyCLI_sec.py中的hosts数组中填写安装HiveServer的节点的业务平面IP。 在python-examples/pyCLI_sec.py和python-examples/pyline.py的conf数组中的“hadoop
scala:96) org.apache.hadoop.hive.ql.metadata.HiveException: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.protocol.AlreadyBeingCreatedException):
状态正常,其他:状态异常)。 是,执行7。 否,执行5。 执行命令vi $BIGDATA_LOG_HOME/omm/oms/ha/scriptlog/knox.log,查看HA的knox资源日志,是否有关键字“ERROR”,分析日志查看资源异常原因并修复。 等待5分钟,查看告警是否恢复。
'*.main()' ”,等待运行成功(默认样例为查询Hive表)。 JDBCExampleZk样例程序运行结果如下所示: ... principal is hivetest@HADOOP.COM Will use keytab Commit Succeeded ... The final
登录FusionInsight Manager,选择“运维 > 告警 > 告警”,选中“告警ID”为“50226”的告警,查看“定位信息”中的角色名并确定实例的IP地址。 选择“集群 > 服务 > Doris > 实例”,单击告警上报的BE实例,查看实例的“运行状态”是否为“正在恢复” 是,执行3。 否,执行4。
'SAUDI ARABIA' join lineitem l on s.s_suppkey = l.l_suppkey where l.l_receiptdate > l.l_commitdate and l.l_orderkey is not null ) l1 on o.o_orderkey
properties”文件: iotdb_ssl_enable=true jdbc_url=jdbc:iotdb://IoTDBServer实例IP地址:IoTDBServer RPC端口 # 进行认证的用户名 username=developuser # 进行认证的用户密码,该密码建议密文存放,使用时解密,确保安全。
只能由英文字母、数字以及“_”和“-”组成,且长度为[1-64]个字符。 在一个节点组范围内,不允许重名。 默认取值: 不涉及 description String 参数解释: 弹性伸缩规则的说明。 约束限制: 不涉及 取值范围: 长度为[0-1024]个字符。 默认取值: 不涉及
击“关于”,在弹框中查看Manager版本号。 图7 查看版本号 命令方式 以root用户登录Manager主OMS节点。 主OMS节点的IP地址信息可在Manager的“主机”页面中查看带有标志的主机信息。 执行如下命令,查看Manager的版本号及平台信息。 su - omm
<VAR_NAME>=<var_value>”选项自定义一个变量,在启动spark-beeline时不会报错,但在SQL语句中用到变量<VAR_NAME>时会报无法解析<VAR_NAME>的错误。 举例说明,场景如下: 执行以下命令启动spark-beeline: spark-beeline --hivevar
great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted
界面,选择“集群 > 服务 > Hive > 配置 > 全部配置 > MetaStore(角色) > 自定义”,添加“hive-ext.skip.grant.partition”参数,值为“true”。添加该参数后在库授权时会跳过分区扫描。需要重启Metastore实例生效。 相关概念
设置主机名和IP地址映射。主机名和IP地址请保持一一对应。 未安装客户端时: Linux环境已安装JDK,版本号需要和IDEA导出Jar包使用的JDK版本一致。 当Linux环境所在主机不是集群中的节点时,需要在Linux环境所在节点的hosts文件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。
add='idx2=>cf1' -Dindexspecs.covered.to.add='idx1=>cf1:[c3],[c4]' -Dindexspecs.coveredallcolumn.to.add='idx3=>true' -Dindexspecs.splitkeys.to.set='idx1=>[\x010