检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
(GET) 描述 获取服务器WebHCat的版本 URL https://www.myserver.com/templeton/v1/version 参数 无 返回结果 参数 描述 supportedVersions 所有支持的版本。 version 当前服务器WebHCat的版本。
(GET) 描述 获取服务器WebHCat的版本 URL http://www.myserver.com/templeton/v1/version 参数 无 返回结果 参数 描述 supportedVersions 所有支持的版本 version 当前服务器WebHCat的版本 例子
720个(一个月的日志)。 表1 Oozie日志列表 日志类型 日志文件名 描述 运行日志 jetty.log Oozie内置jetty服务器日志,处理OozieServlet的request/response信息 jetty.out Oozie进程启动日志 oozie_db_temp
“-Xmx”近似相等,从而避免每次GC后调整堆的大小,从而引起性能下降。 同时,并且“-Xmx”与“XX:MaxPermSize”之和不得大于该节点服务器的实际物理内存值。 重启受影响的服务或实例,观察界面告警是否清除。 是,处理完毕。 否,执行6。 服务或实例重启过程中,Loader不再对
720个(一个月的日志)。 表1 Oozie日志列表 日志类型 日志文件名 描述 运行日志 jetty.log Oozie内置jetty服务器日志,处理OozieServlet的request/response信息 jetty.out Oozie进程启动日志 oozie_db_temp
通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行样例程序前,需要在Spark客户端的“spark-defaults.conf”配置文件中将配置项“spark
环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。 若运行“Spark on
录下启动consumer观察数据是否生成。执行命令: ./kafka-console-consumer.sh --bootstrap-server {ip:port} --topic output --consumer.config ../config/consumer.properties
handler.count”,查看其值。如果值小于或等于128,则设置为128;如果大于128但小于192,则设置为192。 搜索配置项“ipc.server.read.threadpool.size”,查看其值。如果值小于5,则设置为5。 单击“保存”,单击“确定”。 在HDFS的“实例”
录下启动consumer观察数据是否生成。执行命令: ./kafka-console-consumer.sh --bootstrap-server {ip:port} --topic output --consumer.config ../config/consumer.properties
[root@10-10-144-2 client]# kafka-console-consumer.sh --topic topic_acl --bootstrap-server 10.5.144.2:21007 --consumer.config /opt/client/Kafka/kafka/config/consumer
设置为org.apache.hadoop.hdfs.server.blockmanagement.BlockPlacementPolicyWithNodeLabel。 org.apache.hadoop.hdfs.server.blockmanagement.AvailableS
url:可配置多个ClickHouseBalancer实例IP以避免ClickHouseBalancer实例单点故障。 写入ClickHouse时会过滤Flink计算过程中产生的DELETE消息。 攒批写参数:Flink会将数据先放入内存,到达触发条件时再flush到数据库表中。相关配置如下。 sink
carbon.sort.size 500000 内存排序的数据大小。 carbon.enableXXHash true 用于hashkey计算的hashmap算法。 carbon.number.of.cores.block.sort 7 数据加载时块排序所使用的核数。 carbon
flume 系统随机生成 Flume系统启动用户,用于访问HDFS和Kafka,对HDFS目录“/flume”有读写权限。 flume_server 系统随机生成 Flume系统启动用户,用于访问HDFS和Kafka,对HDFS目录“/flume”有读写权限。 spark2x/hadoop
carbon.sort.size 500000 内存排序的数据大小。 carbon.enableXXHash true 用于hashkey计算的hashmap算法。 carbon.number.of.cores.block.sort 7 数据加载时块排序所使用的核数。 carbon
Backoff是FairCallQueue的功能之一,要求客户端在一段时间后重试操作(如创建,删除,打开文件等)。当Backoff发生时,RCP服务器将发生RetriableException异常。FairCallQueue在以下两种情况时进行Backoff。 当队列已满,即队列中有许多客户端调用时。
all后生产了HIVE_UNION_DIR目录,后面再使用concatenate语句对分区执行小文件合并时必现数据丢失的问题 解决更改集群ntp服务器失败的问题 解决未配置ntp时钟源ip地址的问题 解决Kudu 45476告警资料跟告警无法对应的问题 解决Kudu英文资料存在huawei字样的问题
首次登录后会提示该密码过期,请按照提示修改密码。如果密码丢失将不可找回,请妥善保管。 执行以下命令,重置组件运行用户密码。此操作对所有服务器生效。 cpw组件运行用户名 例如重置admin密码:cpw admin 集群中,默认的密码复杂度要求: 密码字符长度为8~32位。 至少
通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行任务 进入Spark客户端目录,调用bin/spark-submit脚本运行代