正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
SST文件压缩算法 取值范围:null、snapp、zlib、bzip2、lz4、lz4hc、xpress、zstd state.backend.rocksdb.bottommost_compression snappy 底层使用重量级的压缩类型,减少空间。
保存集群监控配置数据 导出配置数据 导入集群配置数据 导出安装模板 修改阈值模板 取消阈值模板应用 屏蔽告警 发送告警 修改OMS数据库密码 重置组件数据库密码 重启OMM和Controller 启动集群的健康检查 导入证书文件 配置SSO信息 删除健康检查历史报告 修改集群属性
在Spark中设置公平调度,具体请参考http://archive.apache.org/dist/spark/docs/3.1.1/job-scheduling.html#scheduling-within-an-application。 在JDBC客户端中设置公平调度。
如果当前集群不是安装最新的版本包,需要从“$BIGDATA_HOME/FusionInsight_Porter_x.x.x/install/FusionInsight-Oozie-x.x.x/oozie-x.x.x/embedded-oozie-server/webapp/WEB-INF
可能导致Kafka Topic监控不显示,请按以下步骤恢复: 登录到集群的主OMS节点,执行以下切换到omm用户: su - omm 重启cep服务: restart_app cep 重启后等待3分钟,再次查看kafka Topic监控。
of consumers) 勾选 - Enable Active OffsetCache (Not recommended for large # of consumers) 勾选 - Display Broker and Topic Size (only works after applying
如果当前集群不是安装最新的版本包,需要从“$BIGDATA_HOME/FusionInsight_Porter_x.x.x/install/FusionInsight-Oozie-x.x.x/oozie-x.x.x/embedded-oozie-server/webapp/WEB-INF
场景说明: 用户需要让不同的应用数据运行在不同的节点,分开管理,就可以通过标签表达式,来实现不同业务的分离,指定业务存放到对应的节点上。 通过配置NodeLabel特性使得: /HBase下的数据存储在DN1、DN2、DN3、DN4节点上。
修改密码期间可能影响跨系统业务应用的连接。 MRS 3.x及之后版本,如果修改了系统域名,且集群有运行中的HetuEngine计算实例,需要重启HetuEngine的计算实例。 MRS 3.x及之后版本,配置跨集群互信后,各个集群都需要重新下载并安装客户端。
MRS 2.x及之前版本,备份任务提供全量备份或增量备份的策略,增量备份策略支持HDFS和Hive备份任务,OMS、LdapServer、DBService和NameNode备份任务默认只应用全量备份策略。
-Djdk.tls.ephemeralDHKeySize=3072 -Djava.security.auth.login.config=#{conf_dir}/jaas.conf -Djava.security.krb5.conf=${KRB5_CONFIG} -Dbeetle.application.home.path
'); 相对路径举例: LOAD DATA INPATH '/apps/input_data1.txt' INTO TABLE table_name; 父主题: CarbonData常见问题
包保存在Loader服务主备节点的lib路径:“${BIGDATA_HOME}/FusionInsight_Porter_8.1.0.1/install/FusionInsight-Sqoop-1.99.3/FusionInsight-Sqoop-1.99.3/server/webapps
jar包保存在Loader服务主备节点的lib路径:“${BIGDATA_HOME}/FusionInsight_Porter_xxx/install/FusionInsight-Sqoop-1.99.3/FusionInsight-Sqoop-1.99.3/server/webapps
页面上,单击集群“操作”列的“Kibana”访问集群,在Kibana的左侧导航中选择“Dev Tools”,进入Console界面,输入以下命令创建索引“ddj_study_card_ratio_v12”: PUT ddj_study_card_ratio_v12 { "mappings
编解码器可配置为Snappy,Benchmark测试结果显示Snappy是非常平衡以及高效的编码器。 mapreduce.map.output.compress.codec 参数解释:指定用于压缩的编解码器。
“Application Type” 表示作业的类型。 “Status” 表示作业的状态,包含“RUNNING”、“SUCCEEDED”、“FAILED”和“KILLED”。 “User” 表示启动该作业的用户。 “Maps” 表示作业执行Map过程的进度。
job_id String 作业应用ID。 job_name String 作业名称,只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。 说明: 不同作业的名称允许相同,但不建议设置相同。 input_id String 数据输入ID。
keytab文件 获取该数据源对应用户的认证凭据。 (可选)配置“HetuEngine-Hive用户映射配置”,参数配置请参考表5。 表5 HetuEngine-Hive用户映射配置 参数 描述 HetuEngine User HetuEngine用户信息。
场景说明: 用户需要让不同的应用数据运行在不同的节点,分开管理,就可以通过标签表达式,来实现不同业务的分离,指定业务存放到对应的节点上。 通过配置NodeLabel特性使得: /HBase下的数据存储在DN1、DN2、DN3、DN4节点上。