检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
合并的已压缩的segment数量。 如何调优 每次CarbonData加载创建一个segment,如果每次加载的数据量较小,将在一段时间内生成许多小文件,影响查询性能。配置该参数将小的segment合并为一个大的segment,然后对数据进行排序,可提高查询性能。 压缩的策略根据
> OMS > oldap > 修改配置”,查看“Ldap服务监听端口”参数值获取。 LDAP用户pg_search_dn的密码为系统随机生成,具体可在主节点的“/etc/sssd/sssd.conf”或“/etc/ldap.conf”文件中获取。 修改MRS集群LDAP普通用户密码
子配置项中使用宏定义。 /user/test 是否执行前删除文件 (适用于MRS 3.5.0及以后版本) 作业运行前是否删除根据文件名标识生成的文件,以做到数据可以重入。 false(默认值):作业运行前不执行删除文件动作。 true:作业运行前会删除指定文件名的文件,对应的“文
e.printStackTrace(); System.out.println(e.getHttpStatusCode()); System.out.println(e.getRequestId());
start time: 1494333891969 final status: FAILED tracking URL: https://9-96-101-191:8090/proxy/application_1493689105146_0052/ user: spark2x
start time: 1494333891969 final status: FAILED tracking URL: https://9-96-101-191:8090/proxy/application_1493689105146_0052/ user: spark2x
/v1.1/{project_id}/cluster_infos/{cluster_id} 详情请参见调整集群节点。 请求示例 PUT: https://{endpoint}/v1.1/{project_id}/cluster_infos/{cluster_id} {endpoint}信息具体请参考终端节点。
/v1.1/{project_id}/cluster_infos/{cluster_id} 详情请参见调整集群节点。 请求示例 PUT: https://{endpoint}/v1.1/{project_id}/cluster_infos/{cluster_id} {endpoint}信息具体请参考终端节点。
r_id}/job-executions/{job_execution_id}/kill 详情请参见终止作业。 请求示例 POST: https://{endpoint}/v2/{project_id}/clusters/{cluster_id}/job-executions/{
如果参数值大于HDFS物理磁盘大小,实际最多使用全部的HDFS物理磁盘空间。 说明: 为了保证数据的可靠性,HDFS中每保存一个文件则自动生成1个备份文件,即默认共2个副本。HDFS存储空间表示所有副本文件在HDFS中占用的磁盘空间大小总和。例如“存储空间配额”设置为“500MB
start time: 1494333891969 final status: FAILED tracking URL: https://9-96-101-191:8090/proxy/application_1493689105146_0052/ user: spark2x
start time: 1494333891969 final status: FAILED tracking URL: https://9-96-101-191:8090/proxy/application_1493689105146_0052/ user: spark2x
_64”。 勾选“仅保存到如下路径”,使用默认保存路径,文件生成后将保存在集群主OMS节点的“/tmp/FusionInsight-Client”目录下。 图3 下载集群客户端提示框 单击“确定”后,等待客户端软件生成成功。 在MRS服务管理控制台的集群列表中,单击集群名称,在集
assignment”进入分区迁移页面。 在“Brokers”处选择要将主题重新分配的Broker。 单击“Generate Partition Assignments”生成分区迁移方案。 继续单击“Run assignment”执行分区迁移方案,完成分区迁移。 父主题: Kafka运维管理
合并的已压缩的segment数量。 如何调优 每次CarbonData加载创建一个segment,如果每次加载的数据量较小,将在一段时间内生成许多小文件,影响查询性能。配置该参数将小的segment合并为一个大的segment,然后对数据进行排序,可提高查询性能。 压缩的策略根据
1/hadoop-yarn/hadoop-yarn-site/NodeManagerCgroups.html MRS 3.2.0及之后版本:https://hadoop.apache.org/docs/r3.3.1/hadoop-yarn/hadoop-yarn-site/NodeManagerCgroups
setProperty("java.security.krb5.conf", krb5); String url = "https://"+hostName+":28943/flink/v1/tenants"; String jsonstr = "{"
向Kafka组件发送数据。 MRS服务提供了Spark服务多种场景下的样例开发工程,本章节对应示例场景的开发思路: 接收Kafka中数据,生成相应DStream。 对单词记录进行分类统计。 计算结果,并进行打印。 方案架构 Spark Streaming是一种构建在Spark上的
FlinkStreamJavaExample Flink构造DataStream的Java/Sacla示例程序。 本工程示例为基于业务要求分析用户日志数据,读取文本数据后生成相应的DataStream,然后筛选指定条件的数据,并获取结果。 FlinkStreamScalaExample FlinkStreamSqlJoinExample
0版本基础上,Hive新增如下特性: 基于Kerberos技术的安全认证机制。 数据文件加密机制。 完善的权限管理。 开源社区的Hive特性,请参见https://cwiki.apache.org/confluence/display/hive/designdocs。 父主题: Hive应用开发概述