检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
conf”中下载hive-site.xml与spark-defaults.conf文件到本地。 在HDFS中上传数据。 在Liunx中新建文本文件data,将如下数据内容保存到data文件中。 Miranda,32 Karlie,23 Candice,27 在Linux系统HDFS客户端使用命令hadoop
添加Manager用户 功能介绍 通过访问Manager接口完成添加用户。 代码样例 以下代码片段是添加用户的示例,在“rest”包的“UserManager”类的main方法中。 //访问Manager接口完成添加用户 operationName = "AddUser";
同步MRS集群组件配置参数 当用户发现部分组件或实例的状态超期或失败时,您可以尝试使用同步配置功能,以恢复配置状态。或者集群中所有服务的配置状态为失败时,同步指定服务的配置数据与后台配置数据。 若集群中所有服务的配置状态为“失败”时,同步集群的配置数据与后台配置数据。 若集群中某
HdfsExample hdfs_examples = new HdfsExample("/user/hdfs-examples", "test.txt"); /** * * 如果程序运行在Linux上,则需要core-site.xml、hdfs-site.xml的路径修改
Mapreduce应用开发建议 全局使用的配置项,在“mapred-site.xml”配置文件中指定。 如下示例给出接口所对应的“mapred-site.xml”中的配置项。 示例: setMapperClass(Class <extends Mapper> cls) ->“mapreduce
警产生时间的前后10分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。 父主题: MRS集群告警处理参考
使用Flume服务端从Kafka采集日志保存到HDFS 操作场景 该任务指导用户使用Flume服务端从Kafka的Topic列表(test1)采集日志保存到HDFS上“/flume/test”目录下。 本章节适用于MRS 3.x及之后版本。 本配置默认集群网络环境是安全的,数据传输过程不需要启用SS
/opt/hadoopclient/Flink/flink/conf/user.keytab security.kerberos.login.principal: test 在Flink的客户端bin目录下,执行如下命令进行安全加固,并设置一个用于提交作业的密码。 cd /opt/hadoopclient/Flink/flink/bin
删除Manager用户 功能简介 通过访问Manager接口完成删除用户。 代码样例 以下代码片段是删除用户的示例,在“rest”包的“UserManager”类的main方法中。 //访问Manager接口完成删除用户 operationName
N节点返回的DataNode列表是不断重新计算的,因此不必设置的过大。 如果要在HDFS客户端通过命令行使用DiskBalancer功能,其接口如下: 表3 DiskBalancer功能的接口说明 命令格式 说明 hdfs diskbalancer -report -top <N> N可以指定为大于0的整
配置用户租约隔离访问指定节点的HiveServer 操作场景 此功能适用于Hive。 开启此功能可以限定指定用户访问指定节点上的HiveServer服务,实现对用户访问HiveServer服务的资源隔离。 本章节适用于MRS 3.x及后续版本。 操作步骤 以对用户hiveuser
同步MRS集群配置 某个新的配置需要同时下发到集群所有服务,或修改某项配置后导致多个不同服务的“配置状态”为“配置过期”或“失败”时,表示这些服务的配置参数值未同步且未生效,集群管理员可以对集群执行同步配置功能,并在同步配置后重启相关服务实例,使所有服务启用新的配置参数。 前提条件
修改Manager用户 功能简介 通过访问Manager接口完成修改用户。 代码样例 以下代码片段是修改用户的示例,在“rest”包的“UserManager”类的main方法中。 //访问Manager接口完成修改用户 operationName
使用Flume客户端从Kafka采集日志保存到HDFS 操作场景 该任务指导用户使用Flume客户端从Kafka客户端的Topic列表(test1)采集日志保存到HDFS上“/flume/test”目录下。 本章节适用于MRS 3.x及之后版本。 本配置默认集群网络环境是安全的,数据传输过程不需要启用SS
N节点返回的DataNode列表是不断重新计算的,因此不必设置的过大。 如果要在HDFS客户端通过命令行使用DiskBalancer功能,其接口如下: 表3 DiskBalancer功能的接口说明 命令格式 说明 hdfs diskbalancer -report -top <N> N可以指定为大于0的整
CONTENT 语法 SELECT column_name FROM view_name 描述 用于查询视图内容。 示例 SELECT * FROM test_view; 父主题: HetuEngine DQL SQL语法说明
执行Map/Reduce任务。 ThriftServer:提供thrift接口,作为JDBC的服务端,并将Hive和其他应用程序集成起来。 Clients:包含WebUI和JDBC接口,为用户访问提供接口。 操作流程 本实践以某图书网站后台用户的点评数据为原始数据,导入Hive表后通过SQL命令筛选出最受欢迎的图书。
flink.examples.Information: package com.huawei.bigdata.flink.examples case class Inforamtion(index: Int, content: String) { def this() = this(0
果cataglog未指定,则默认使用当前的catalog。 示例 指定当前的会话到hive catalog下名为test的schema: USER hive.test 注意事项 无。 父主题: HetuEngine辅助命令语法
为流式系统的最大瓶颈点。 对Kafka的性能调优,有以下几个点: 使用Kafka-0.8.2以后版本,可以使用异步模式的新Producer接口。 配置多个Broker的目录,设置多个IO线程,配置Topic合理的Partition个数。 详情请参见Kafka开源文档中的“性能调优”部分:http://kafka