检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
适用于企业海量数据分析。 其中Hive提供类SQL查询语言,帮助用户对大规模的数据进行提取、转换和加载,即通常所称的ETL(Extraction,Transformation,and Loading)操作。对庞大的数据集查询需要耗费大量的时间去处理,在许多场景下,可以通过建立H
remotenn1”值为对端集群其中一个NameNode实例的业务IP和RPC端口,设置“haclusterX.remotenn2”值为对端集群另外一个NameNode实例的业务IP和RPC端口。按照“IP:port”格式填写。 “dfs.namenode.rpc-address.haclusterX
是四种协议类型的简单说明: 协议类型 说明 默认端口 PLAINTEXT 支持无认证的明文访问 获取参数“port”的值,默认为9092 SASL_PLAINTEXT 支持Kerberos认证的明文访问 获取参数“sasl.port”的值,默认为21007 SSL 支持无认证的SSL加密访问
否,执行2。 获取连接进程的进程号。依次登录到各IP,根据获取到的port号,执行命令lsof -i|grep $port。($port为上一步获取端口号) 获取进程号成功。 是,执行1.j。 否,执行2。 根据获取到的进程号,查看进程是否存在连接泄露。 是,执行1.k。 否,执行1.l。
“krb5.conf”配置文件的“renew_lifetime = 0m”配置项。 查看结果。 查看样例代码中的HiveQL所查询出的结果,运行成功结果会有如下信息。 JDBC客户端运行及结果查看。 Create table success! _c0 0 Delete table
Superior通过REST接口查看已结束或不存在的applicationID,页面提示Error Occurred 问题 Superior通过REST接口查看已结束或不存在的applicationID,返回的页面提示Error Occurred。 回答 用户提交查看application
ALM-50219 当前查询执行线程池等待队列的长度超过阈值 告警解释 系统每30秒周期性检查当前查询执行线程池等待队列的长度超过阈值,当检查到该值超出阈值(默认值为20)时产生该告警。 当前查询执行线程池等待队列的长度低于阈值时,告警清除。 告警属性 告警ID 告警级别 是否可自动清除
kafka.bootstrap.servers = XXX.XXX.XXX.XXX:kafka端口号,XXX.XXX.XXX.XXX:kafka端口号,XXX.XXX.XXX.XXX:kafka端口号 client.sinks.kafka_sink.flumeBatchSize = 1000
DBService配置文件丢失导致启动失败 问题背景与现象 节点异常下电,重启备DBService失败。 原因分析 查看/var/log/Bigdata/dbservice/DB/gaussdb.log日志没有内容。 查看/var/log/Bigdata/dbservice/scriptlog/preStartDBService
testUser --password --port ClickHouse的端口号 输入testUser对应的密码 <ldap_servers>配置参数详解 host OpenLDAP服务器主机名或IP,必选参数,不能为空。 port OpenLDAP服务器端口,如果enable_tls参数设
如何查看System.out.println打印的调试信息或将调试信息输出至指定文件 问题 Flink业务代码中添加了System.out.println调试信息打印,该如何查看此调试日志?避免与运行日志混在一起打印,如何将业务日志单独输出至指定文件? 回答 Flink所有的运行
如何查看System.out.println打印的调试信息或将调试信息输出至指定文件 问题 Flink业务代码中添加了System.out.println调试信息打印,该如何查看此调试日志?避免与运行日志混在一起打印,如何将业务日志单独输出至指定文件? 回答 Flink所有的运行
) ENGINE = Kafka() SETTINGS kafka_broker_list = 'host1:port1,host2:port2', kafka_topic_list = 'topic1,topic2,...', kafka_group_name
> 服务配置”,记录LdapServer的端口号为PORT(若告警定位信息中的IP地址为oms备节点IP地址,则端口号为默认端口21750)。 以omm用户登录IP1节点,分别执行ldapsearch -H ldaps://IP1:PORT -x -LLL -b dc=hadoop
]-worker-[端口号].log Worker进程运行日志,一个端口占用一个日志文件,系统默认包含29100,29101,29102,29103,29304五个端口。 supervisor/metadata/[topologyid]-worker-[端口号].yaml wor
境中运行应用。 MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果查看程序运行情况。 登录MapReduce WebUI查看应用程序运行情况。 登录Yarn WebUI查看应用程序运行情况。 通过MapReduce日志获取应用程序运行情况。
客户端Consumer侧采用非安全访问,Kafka Topic设置ACL。 原因分析 查看Kafka服务状态: MRS Manager界面操作:登录MRS Manager,依次选择“服务管理 > Kafka”,查看当前Kafka状态,发现状态为良好,且监控指标内容显示正确。 FusionInsight
testUser --password --port ClickHouse的端口号 输入testUser对应的密码 <ldap_servers>配置参数详解 host:OpenLDAP服务器主机名或IP,必选参数,不能为空。 port:OpenLDAP服务器端口,如果enable_tls参数设
grep slapd,查询配置文件位于“${BIGDATA_HOME}/om-0.0.1/”路径下面的LdapServer资源进程是否正常。 判断资源正常有两个标识: 执行sh ${BIGDATA_HOME}/om-0.0.1/sbin/status-oms.sh命令后查看到oldap的
I_nosec.py中的host的值修改为安装HiveServer的节点的业务平面IP,port的值修改为Hive提供Thrift服务的端口(hive.server2.thrift.port),默认值为“10000”。 执行以下命令运行Python3客户端: cd python3-examples