检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
false:关闭Join下推。 true 单击“删除”可以删除已增加的自定义配置参数。 单击“确定”。 登录集群客户端所在节点,执行以下命令,切换到客户端安装目录并认证用户。 cd /opt/hadoopclient source bigdata_env kinit HetuEngine组件操作用户 (普通模式集群跳过)
登录MRS管理控制台。 选择“现有集群”,单击待操作的集群名称,进入集群详情页面。 选择“弹性伸缩”页签,进入配置弹性伸缩界面。 单击“新增弹性伸缩策略”按钮,并配置“节点数量范围”为“2 - 4”。 配置资源计划。 单击默认范围下方的“配置指定时间段的节点数量范围”。 配置“时间范围”和“节点数量范围”。
xml”文件。 hdfs-site.xml (可选)自定义配置。 单击“确定”。 登录集群客户端所在节点,执行以下命令,切换到客户端安装目录并认证用户。 cd /opt/client source bigdata_env kinit HetuEngine组件操作用户 (普通模式集群跳过)
时间函数now())会解析成String类型,而数据库里是DateTime类型,导致类型不匹配,数据入库异常。 解决:在代码中生成时间,并生成字段传入或者在ClickHouse中修改表结构,给对应字段默认值。 建议 查询增加重试机制 clickhouse-example.pro
下信息: “备份对象”表示备份的数据源。 “备份路径”表示备份文件保存的完整路径。 选择正确的项目,在“备份路径”中选中备份文件的完整路径并复制。 在FusionInsight Manager,选择“运维 > 备份恢复 > 恢复管理”。 单击“创建”。 在“任务名称”填写恢复任务的名称。
Flume支持一个Source配置多个拦截器,各拦截器名称用空格分开。 指定拦截器的顺序就是它们被调用的顺序。 使用拦截器在Header中插入的内容,都可以在Sink中读取并使用。 表5 Flume内建支持的拦截器类型 拦截器类型 简要描述 Timestamp Interceptor 该拦截器会在Event的Header中插入一个时间戳。
-XX:NewSize=1G -XX:MaxNewSize=1G 按照Block数量和内存对应关系,对DataNode的堆内存参数进行修改,并单击“保存”,选择“概览 > 更多 > 重启服务”进行重启。 服务在重启过程中将不可用。另外,依赖该服务的上层服务也将受到影响。 检查本告警是否恢复。
kafkaParams) // 用brokers and topics新建direct kafka stream //从Kafka接收数据并生成相应的DStream。 val stream = KafkaUtils.createDirectStream[String, String](ssc
kafkaParams) // 用brokers and topics新建direct kafka stream //从Kafka接收数据并生成相应的DStream。 val stream = KafkaUtils.createDirectStream[String, String](ssc
kafkaParams) // 用brokers and topics新建direct kafka stream //从Kafka接收数据并生成相应的DStream。 val stream = KafkaUtils.createDirectStream[String, String](ssc
以满足业务需求,且导致集群难以扩展。 规划存储大量文件的HDFS系统容量,就是规划NameNode的容量规格和DataNode的容量规格,并根据容量设置参数。 容量规格 以下相关参数可以参考修改集群服务配置参数进入HDFS服务全部配置页面,搜索对应参数查看。 NameNode容量规格
下信息: “备份对象”表示备份的数据源。 “备份路径”表示备份文件保存的完整路径。 选择正确的项目,在“备份路径”中选中备份文件的完整路径并复制。 在FusionInsight Manager,选择“运维 > 备份恢复 > 恢复管理”。 单击“创建”。 在“任务名称”填写恢复任务的名称。
kinit 组件业务用户 执行以下命令切换到Kafka客户端安装目录。 cd Kafka/kafka/bin 执行以下命令使用客户端工具查看帮助并使用。 ./kafka-console-consumer.sh:Kafka消息读取工具 ./kafka-console-producer.sh:Kafka消息发布工具
”进入“Project Structure”页面。 在“Project Structure”页面,选择“Artifacts”,单击“+”并选择“From modules with dependencies...”。 图1 添加Artifacts 选择“extract to the
kafkaParams) // 用brokers and topics新建direct kafka stream //从Kafka接收数据并生成相应的DStream。 val stream = KafkaUtils.createDirectStream[String, String](ssc
Maven Projects”,进行maven项目依赖import。 图1 reimport projects 编译运行程序。 放置好配置文件,并修改代码匹配登录用户后,文件列表如图2所示。 图2 hbase-example待编译目录列表 编译方式有以下两种。 方法一 选择“Maven
> 服务 > Yarn > 配置 > 全部配置 > ResourceManager > 系统”。将“GC_OPTS”参数根据实际情况调大,并单击“保存”,保存完成后重启角色实例。 重启主ResourceManager实例,会发生ResourceManager实例主备倒换,倒换过程
hdfs://hacluster/testHdfs Content-Length: 0 Connection: close 打开“/huawei/testHdfs”文件,并读取文件中上传写入的内容。 执行如下命令访问HTTP: curl -L --negotiate -u: "http://linux1:987
hdfs://hacluster/testHdfs Content-Length: 0 Connection: close 打开“/huawei/testHdfs”文件,并读取文件中上传写入的内容。 执行如下命令访问HTTP: curl -L --negotiate -u: "http://linux1:987
Kafka普通用户组。添加入本组的用户,需要被kafkaadmin组用户授予特定主题的读写权限,才能访问对应主题。 前提条件 已安装客户端。 用户已明确业务需求,并准备一个属于kafkaadmin组的用户,作为Kafka管理员用户。例如“admin”。 操作步骤 进入ZooKeeper实例页面: MRS3