检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ationAdmin和DFSColocationClient实例。如果每次对文件系统操作都获取此实例,会创建过多HDFS链接,消耗HDFS资源。 Colocation提供了文件同分布的功能,执行集群Balancer或Mover操作时,会移动数据块,使Colocation功能失效。
ationAdmin和DFSColocationClient实例。如果每次对文件系统操作都获取此实例,会创建过多HDFS链接,消耗HDFS资源。 Colocation提供了文件同分布的功能,执行集群balancer或mover操作时,会移动数据块,使Colocation功能失效。
ationAdmin和DFSColocationClient实例。如果每次对文件系统操作都获取此实例,会创建过多HDFS链接,消耗HDFS资源。 Colocation提供了文件同分布的功能,执行集群Balancer或Mover操作时,会移动数据块,使Colocation功能失效。
x及之后版本)。 在FusionInsight Manager界面,选择“系统 > 权限 > 角色 > 添加角色”: 设置“角色名称”。 在“配置资源权限”下选择“待操作集群名称 >Hue”,勾选“存储策略管理员”,单击“确定”,为该角色赋予存储策略管理员的权限。 选择“系统 > 权限 >
需要在maven工程中添加hive-exec-3.1.1的依赖,可从Hive服务安装目录下获取。 (可选)若用户存在Hive UDF依赖的配置文件,建议将其作为资源文件放在resources目录下,即可打包到Hive UDF函数包中。 创建Maven项目,“groupId”配置“com.test.ud
表示RegionServer在同一时刻能够并发处理多少请求。如果设置过高会导致激烈线程竞争,如果设置过小,请求将会在RegionServer长时间等待,降低处理能力。根据资源情况,适当增加处理线程数。 建议根据CPU的使用情况,可以选择设置为100至300之间的值。 200 hfile.block.cache.size
准备HBase应用开发用户 开发用户用于运行样例工程。用户需要有HBase权限,才能运行HBase样例工程。 前提条件 MRS服务集群开启了Kerberos认证,没有开启Kerberos认证的集群忽略该步骤。 操作步骤 登录MRS Manager,请参考登录MRS Manager。
准备Hive应用开发用户 开发用户用于运行样例工程。用户需要有Hive权限,才能运行Hive样例工程。 前提条件 MRS服务集群开启了Kerberos认证需要执行该步骤,没有开启Kerberos认证的集群忽略该步骤。 操作步骤 登录MRS Manager,请参考登录MRS Manager。
准备MapReduce应用开发用户 开发用户用于运行样例工程。用户需要有组件权限,才能运行样例工程。 前提条件 MRS服务集群开启了Kerberos认证,没有开启Kerberos认证的集群忽略该步骤。 操作步骤 登录MRS Manager,在MRS Manager界面选择“系统设置
添加MRS节点引导操作安装第三方软件 前提条件 已参考准备MRS节点引导操作脚本准备好引导操作脚本。 创建集群时添加引导操作 进入购买MRS集群页面。 在购买集群页面,选择“自定义购买”。 参考自定义购买MRS集群配置集群软件配置和硬件配置信息。 在“高级配置”区域勾选“现在配置”,单击引导操作栏的“添加”。
储,稀疏索引的默认采样粒度是8192行,即每8192行取一条记录在索引文件中。 使用建议: 索引粒度越小,对于小范围的查询更有效,避免查询资源的浪费。 索引粒度越大,则索引文件越小,索引文件的处理会更快。 超过10亿的表索引粒度可设为16384,其他设为8192或者更小值。 本地表建表参考
使用客户端运行Loader作业 操作场景 一般情况下,用户可以手工在Loader界面管理数据导入导出作业。当用户需要通过shell脚本来更新与运行Loader作业时,必须对已安装的Loader客户端进行配置。 Loader不兼容旧版本客户端,如果重新安装集群或Loader服务,请
使用命令行运行Loader作业 操作场景 一般情况下,用户可以手工在Loader界面管理数据导入导出作业。当用户需要通过shell脚本来更新与运行Loader作业时,必须对已安装的Loader客户端进行配置。 Loader不兼容旧版本客户端,如果重新安装集群或Loader服务,请
调测OpenTSDB应用 OpenTSDB应用程序支持在安装OpenTSDB客户端的Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至Linux环境中运行应用。 前提条件 Linux环境已安装JDK,版本号需要和Eclipse导出Jar包使用的JDK版本一致。 当客
vcores 40,memory 28 resourcepool -status <resourcepoolname>以列表格式显示资源库详细信息。示例如下: > superior resourcepool -status default NAME: default DESCRIPTION:
vcores 40,memory 28 resourcepool -status <resourcepoolname>以列表格式显示资源库详细信息。示例如下: > superior resourcepool -status default NAME: default DESCRIPTION:
准备Spark应用开发用户 前提条件 MRS服务集群开启了Kerberos认证,没有开启Kerberos认证的集群忽略该步骤。 操作场景 开发用户用于运行样例工程。用户需要有HDFS、YARN和Hive权限,才能运行Spark样例工程。 操作步骤 登录MRS Manager,请参考登录MRS
IoTDB Kafka样例程序 功能简介 该样例介绍如何通过Kafka将数据发送到IoTDB。 代码样例 Producer.java: 该样例展示如何将时序数据发送到Kafka集群。 根据实际场景,修改“KafkaProperties.java”文件中的“TOPIC”变量,例如:public
vcores 40,memory 28 resourcepool -status <resourcepoolname>以列表格式显示资源库详细信息。示例如下: > superior resourcepool -status default NAME: default DESCRIPTION:
vcores 40,memory 28 resourcepool -status <resourcepoolname>以列表格式显示资源库详细信息。示例如下: > superior resourcepool -status default NAME: default DESCRIPTION: