检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
录某个用户的基本信息,包括名字、性别、年龄。另有一个Flink业务2会不定时收到1条消息记录,消息记录该用户的名字、职业信息。实现实时的以根据业务2中消息记录的用户名字作为关键字,对两个业务数据进行联合查询的功能。 父主题: Flink开发指南(安全模式)
ms的大小设置要在服务端参数group.min.session.timeout.ms和group.max.session.timeout.ms之间。 以上参数可以根据实际情况进行适当的调整,特别是max.poll.records,这个参数是为了控制每次poll数据的records量,保证每次的处理时长尽
WebUI的任务列表后台分页功能后,每个分页显示的最大作业数量。 5000 显示更多的历史作业,会影响性能,增加打开Yarn WebUI的时间,建议开启后台分页功能,并根据实际硬件性能修改“yarn.resourcemanager.max-completed-applications”参数。 修改参数值后,需重启Yarn服务使其生效。
'hebei', city= 'baoding') values ('xiaobei',15),( 'xiaoming',22); -- 根据test_p_1 插入数据到test_p_2 -- 方式一 from test_p_1 insert into table test_p_2
replicas”可以确保多副本写入成功,只要有一个副本保持活跃状态,记录将不会丢失,此参数配置为-1时,会降低生产性能,请权衡后配置。 配置建议 请根据以下业务场景对可靠性和性能要求进行评估,采用合理参数配置。 对于价值数据,这两种场景下建议Kafka数据目录磁盘配置raid1或者raid
HBase > 单个RegionServer的Region数目”,选中目前应用的规则,单击“修改”查看目前的阈值设置是否合理。 如果过小,则根据集群实际情况,增大阈值,执行17。 如果阈值设置合理,则执行18。 图2 单个RegionServer的Region数目 观察该告警是否清除。
List<DatanodeInfo>> createColocationGroup(String groupId,String file) 根据文件file中的locatorIds信息,创建group。file为文件路径。 public Map<String, List<DatanodeInfo>>
界面显示以实际为准。 等待集群创建完成后,在“现有集群”页面单击已创建的MRS集群名称,在“概览”页签单击“IAM用户同步”后的“同步”,根据界面提示同步当前用户。 参考配置MRS 3.3.0-LTS版本集群配置组件存算分离、下载客户端等操作。 配置MRS 3.3.0-LTS版本集群
"statusCode":0}]} 如果无法查询出健康状态码或者浏览器一直无响应,可能是由于Oozie进程故障导致服务不可用,请参考13进行处理。 根据查询到的错误码执行相关处理步骤,请参考表1。 表1 Oozie服务健康状态码一览表 状态码 错误描述 错误原因 处理步骤 0 服务正常 无
员。 回退升级补丁时增加的配置 不涉及。 重启相关组件 补丁卸载完成后,需要手动重启相关大数据组件服务,使补丁生效。 提供两种重启方式,请根据业务自行选择重启方式: 滚动重启:影响小,耗时长。 离线重启:会断服,耗时短。 登录MRS控制台或FusionInsight Manager界面。
RollingFileAppender log4j.appender.DUAL.File=/var/log/dual.log //客户端本地双读日志路径,根据实际路径修改,但目录要有写入权限 log4j.additivity.DUAL=false log4j.appender.DUAL.MaxFileSize=${hbase
ClickHouseBalancer服务关闭日志文件路径。 /var/log/coredump/clickhouse-*.core.gz ClickHouse进程异常崩溃后生成的内存转储文件压缩包。 该日志仅适用于MRS 3.3.0及之后版本。 数据迁移日志 /var/log/Bigdata/clickhouse
ResourceManager Web UI页面 查看MapReduce日志获取应用运行情况 您可以查看MapReduce日志了解应用运行情况,并根据日志信息调整应用程序。 父主题: 调测MapReduce应用
yaml worker日志元数据文件,logviewer在清理日志的时候会以该文件来作为清理依据。该文件会被logviewer日志清理线程根据一定条件自动删除。 nimbus/cleanup.log Nimbus卸载的清理日志。 logviewer/cleanup.log logviewer卸载的清理日志。
ZooKeeper > 实例”。 查看ZooKeeper角色实例的IP地址。 记录ZooKeeper角色实例其中任意一个的IP地址即可。 根据业务情况,准备好客户端,参考使用MRS客户端章节,登录安装客户端的节点。 执行以下命令,切换到客户端目录,例如“/opt/client/Kafka/kafka/bin”。
登录FusionInsight Manager。 选择“审计 > 配置”。 单击“审计日志转储”右侧的开关。 “审计日志转储”默认为不启用,开关显示为表示启用。 根据表1填写转储参数。 图1 转储参数 表1 审计日志转储参数 参数名 参数解释 参数值 SFTP IP 模式 目标IP的IP地址模式,可选择“IPv4”或者“IPv6”。
10.10.10 hadoop.系统域名”(如“10.10.10.10 hadoop.hadoop.com”),否则HetuEngine无法根据主机名称连接到非本集群节点。 已创建HetuEngine计算实例。 添加Hive数据源步骤 获取Hive数据源集群的“hdfs-site.xml”和“core-site
#分组方式为shuffle,无需传入参数 部署运行及结果查看 使用如下命令打包:“mvn package”。执行成功后,将会在target目录生成storm-examples-1.0.jar。 将打好的jar包,以及开发好的yaml文件及相关的properties文件拷贝至storm
ResourceManager Web UI页面 查看MapReduce日志获取应用运行情况 您可以查看MapReduce日志了解应用运行情况,并根据日志信息调整应用程序。 父主题: 调测MapReduce应用
return Optional.of(partitionView.leader()); } } } 开启方法: 服务端:根据不同特性更新“replica.selector.class”配置项: 开启“机架内就近消费特性”,配置为“org.apache.kafka