检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
指定MapReduce作业的Combiner类,默认为空。也可以在“mapred-site.xml”中配置“mapreduce.job.combine.class”项。需要保证reduce的输入输出key,value类型相同才可以使用,谨慎使用。 setInputFormatClass(Class<extends
work(RegionServer需要有更多的核心)。在“客户端安装路径/HBase/hbase/conf/hbase-site.xml”中添加参数: “hbase.regionserver.wal.max.splitters”(默认为2) 如果所有的恢复过程都需要时间,增加初始化监控线程超时时间。
} 注意事项 需要在“hbase-site.xml”中配置用于存放中间查询结果的临时目录路径,该目录大小限制可查询结果集大小; Phoenix实现了大部分java.sql接口,SQL紧跟ANSI SQL标准。 MRS 1.9.2之后的版本需要按HBase Phoenix
费”和“包年/包月”。 集群版本 集群的版本信息。 集群类型 创建集群时的集群类型。 集群ID 集群的唯一标识,创建集群时系统自动赋值,不需要用户设置。 创建时间 显示集群创建的时间。 订单号 显示创建集群的订单号。该参数仅在“付费类型”为“包年/包月”时显示。 可用区 集群工作区域下的可用区,创建集群时设置。
work(RegionServer需要有更多的核心)。在“客户端安装路径/HBase/hbase/conf/hbase-site.xml”中添加参数: “hbase.regionserver.wal.max.splitters”(默认为2) 如果所有的恢复过程都需要时间,增加初始化监控线程超时时间。
ConfigNode和IoTDBServer两个角色同名参数都要修改。 GC_OPTS IoTDBServer使用的内存和GC配置参数,需要按实际情况进行配置。 -Xms2G -Xmx2G -XX:MaxDirectMemorySize=512M -XX:+UseG1GC -X
1000(用户历史消费金额)。 上例所示,运行结果table2表用户key=1的总消费金额为cf:cid=1100元。 数据规划 在开始开发应用前,需要创建Hive表,命名为person,并插入数据。同时,创建HBase table2表,用于将分析后的数据写入。 将原日志文件放置到HDFS系统中。
mp类型。 对冻结后的表进行Msck元数据修复时,需要先解冻数据。如果对冻结表进行过备份后恢复操作,则可以直接执行Msck元数据修复操作,且解冻只能通过msck repair命令进行操作。 对冻结后的分区进行rename时,需要先解冻数据,否则会提示分区不存在。 删除存在冻结数据的表时,被冻结的数据会同步删除。
Transform功能开关 切换Hive执行引擎为Tez Hive负载均衡 配置Hive单表动态视图的访问控制权限 配置创建临时函数的用户不需要具有ADMIN权限 配置具备表select权限的用户可查看表结构 配置仅Hive管理员用户能创建库和在default库建表 配置Hive支持创建超过32个角色
单击“保存”保存配置。单击“实例”,勾选所有Hive实例,选择“更多 > 重启实例”,输入当前用户密码,单击“确定”重启所有Hive实例。 是否需要在Spark/Spark2x客户端中启用此功能? 是,重新下载并安装Spark/Spark2x客户端。 否,操作结束。 父主题: Hive企业级能力增强
e表(除EXTERNAL表外)执行drop操作时,会尝试删除该表对应的HDFS数据目录,如果目录删除失败,系统会提示表删除失败。 如果确实需要删除该表,可手动删除涉及到该表的所有备份任务。 父主题: Hive常见问题
e表(除EXTERNAL表外)执行drop操作时,会尝试删除该表对应的HDFS数据目录,如果目录删除失败,系统会提示表删除失败。 如果确实需要删除该表,可手动删除涉及到该表的所有备份任务。 父主题: Hive常见问题
在进行开发时,要准备的开发和运行环境如表1所示。 表1 开发和运行环境 准备项 说明 操作系统 Windows系统,支持Windows 7以上版本。 本地开发环境需要和集群业务平面网络互通。 安装JDK 开发和运行环境的基本配置,版本要求如下: JDK版本号应该与用户要访问的FusionInsight
Manager页面修改配置时,配置文件被用户A在MRS节点后台打开,导致该配置文件不能被替换,最终导致Hive服务启动失败。 处理步骤 用户需要首先手动关闭集群节点后台打开的Hive配置文件。 在MRS Manager页面重新修改Hive的配置并保存配置。 重启Hive服务。 父主题:
Streaming中常见的类有: JavaStreamingContext:是Spark Streaming功能的主入口,负责提供创建DStreams的方法,入参中需要设置批次的时间间隔。 JavaDStream:是一种代表RDDs连续序列的数据类型,代表连续数据流。 JavaPairDStream:KV
现数据的存储功能。 ZooKeeper集群 ZooKeeper为HBase集群中各进程提供分布式协作服务。各RegionServer将信息注册到ZooKeeper中,主用Master据此感知各个RegionServer的健康状态。 HDFS集群 HDFS为HBase提供高可靠的文
在程序代码完成开发后,也可以把代码编译成jar包,上传到Linux环境进行程序功能调试。 在Linux环境上调测程序前,需在Linux节点预安装客户端。 操作步骤 根据需要修改“jaas-zk.conf”中“KeyTab”文件在Linux节点上放置的路径。例如:"/opt/client/conf/user.keytab"。
参考获取MRS应用开发样例工程,获取样例代码解压目录中“src”目录下的样例工程文件夹“kafka-examples”。 获取配置文件。 若需要在本地Windows调测Kafka样例代码,将准备集群认证用户信息时得到的keytab文件“user.keytab”和“krb5.conf
obs://并行文件系统名称/tmp/flinkjob/output 由于Flink作业是On Yarn运行,在配置Flink对接OBS文件系统之前需要确保Yarn对接OBS文件系统功能是正常的。 OBS并行文件系统名称/文件名称:OBS文件路径需写至目录层级。 集群已启用Kerberos
此步骤) kinit 组件业务用户 执行以下命令登录客户端工具。 zkCli.sh -server ZooKeeper角色实例所在节点业务IP: clientPort 执行如下命令查看ZooKeeper上ClickHouse使用的配额情况,查看配额信息是否设置正常。 listquota