检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
limit”参数,可分别设置如下值: true(默认值):自动计算Yarn资源,若资源满足则直接扩容;若资源不足则不会下发扩容任务,手动扩容不生效。 false:不计算Yarn资源是否满足,直接下发任务到Yarn上。若资源满足则直接扩容;若资源不足则排队等待资源。 配置HetuEngine
提交HiveSQL任务长时间卡住无法往下运行。 Yarn资源抢占功能偶现不生效。 “/tmp/hadoop-yarn/staging/”目录下文件未清理。 Yarn队列资源充足,任务提交无法取到资源。 kill有预留资源的任务后,Yarn上预留资源累加不释放。 任务长时间运行后日志丢失。 解决HDFS问题:
解决Hive和Spark路径下adapter-hadoop-wrapper-file-system包版本错误问题 解决HBase服务Manager上保存多命名空间,后台不生效问题 新增HDFSWrapper支持AbstractFileSystem 补丁兼容关系 MRS 1.9.3.3补丁包中包含MRS 1.9.3版本发布的所有补丁内容。
其中“hdfs”和“hbase”表示业务中用到的操作系统用户名称。 只有root用户有权限编辑“limits.conf”文件。 如果修改的配置不生效,请确认“/etc/security/limits.d”目录下是否有针对操作系统用户的其他nofile值。这样的值可能会覆盖“/etc/security/limits
enabled.mechanisms”,将参数值改为“GSSAPI,PLAIN”。单击“保存”,单击“概览”,选择“更多 > 重启服务”使配置生效 获取“huawei-spring-boot-kafka-examples-*.jar”。 在样例代码的“springboot/kafka
其中“hdfs”和“hbase”表示业务中用到的操作系统用户名称。 只有root用户有权限编辑“limits.conf”文件。 如果修改的配置不生效,请确认“/etc/security/limits.d”目录下是否有针对操作系统用户的其他nofile值。这样的值可能会覆盖“/etc/security/limits
将“IoTDB->ConfigNode”的“SSL_ENABLE”参数值修改为“false”。 将“IoTDB->IoTDBServer”的“enable_https”和“SSL_ENABLE”的参数值都修改为“false”。 使用root用户分别登录所有的IoTDBserver节点,修改“${BIG
16”。 is_filtered:是否屏蔽告警。“true”表示屏蔽告警,不上报告警;“false”表示经过平滑次数后上报。 smoothing_times:平滑次数,告警产生次数小于等于此平滑次数时,不上报告警信息,取值为整型且大于0。 “is_filtered”参数优先级高于
S和ZooKeeper鉴权。 该章节仅适用于MRS 3.x及之后版本。 对系统的影响 修改开关后服务的配置将过期,需要重启对应的服务使配置生效。 关闭HDFS鉴权 登录FusionInsight Manager。 选择“集群 > 待操作集群的名称 > 服务 > HDFS > 配置”。
expandor”中新增参数“hbase.gsi.max.index.count.per.table”,设置值大于5,并重启HMaster使配置生效。 索引名长度不能超过18个字符 不建议使用过长的索引名。如果需创建较长的索引名,请在HMaster的自定义配置“hbase.hmaster.config.
要求较低,允许不处理部分数据,可设置参数值为“null”或“0”,以关闭Acker的执行器,减少流控制,不统计消息时延,提高性能。 topology.max.spout.pending null Spout消息缓存数,仅在Acker不为0或者不为null的情况下生效。Spout将
ssl启用后密钥存储密码,开启ssl后,该参数必填。 trust-all-certs false 是否关闭SSL server证书检查。设置为“true”时将不会检查远端source的SSL server证书,不建议在生产中使用。 exclude-protocols SSLv3 排除的协议列表,用空格分开。默认排除SSLv3协议。
实例日志压缩文件总体最大值,默认值:5GB。 选择要修改的配置项进行修改。 单击“保存”,然后单击“确定”,成功后等待大约30秒,配置自动生效。 表1 HetuEngine日志列表 日志类别 日志文件名 描述 安装启停日志 prestart.log 启动前预处理脚本日志。 start
配置是否启用自适应执行功能。 注意:AQE特性与DPP(动态分区裁剪)特性同时开启时,SparkSQL任务执行中会优先执行DPP特性,从而使得AQE特性不生效。 false spark.sql.optimizer.dynamicPartitionPruning.enabled 动态分区裁剪功能的开关。
配置是否启用自适应执行功能。 注意:AQE特性与DPP(动态分区裁剪)特性同时开启时,SparkSQL任务执行中会优先执行DPP特性,从而使得AQE特性不生效。 false spark.sql.optimizer.dynamicPartitionPruning.enabled 动态分区裁剪功能的开关。
问题 使用JDBC连接Impala执行查询后,Impalad的session连接长时间没提交查询,但连接没有自动断开。 回答 如果要永久生效,登录Manager界面,选择“集群 > 服务 > Impala > 配置 > 全部配置 > Impalad(角色) > 自定义”,在“impalad
threadpool.size 多路读取线程池的大小。设置等于0时不启用多路读功能。 大于等于0 参数修改后保存配置。 在HDFS“实例”界面,勾选所有DataNode实例,选择“更多 > 滚动重启实例”,等待滚动重启完成生效。 父主题: HDFS企业级能力增强
POST -HContent-type:application/json -d '{"plainText":"password"}' 'https://x.x.x.x:28443/web/api/v2/tools/encrypt' 其中user name:password分别为当前
ssl启用后密钥存储密码,开启ssl后,该参数必填。 trust-all-certs false 是否关闭SSL server证书检查。设置为“true”时将不会检查远端source的SSL server证书,不建议在生产中使用。 exclude-protocols SSLv3 排除的协议列表,用空格分开。默认排除SSLv3协议。
切勿设置该参数为全局生效,禁止使用set global方式进行设置。 设置参数值建议为偶数2或4(最大值不要超过单节点CPU核数的一半)。 设置此参数值时需要观察CPU使用率,CPU使用率小于50%时方可考虑设置。 如果查询SQL是insert into select大数据量的方式,不建议设置此参数。