检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
new Processor<String, String>() { // ProcessorContext实例,它提供对当前正在处理的记录的元数据的访问 private ProcessorContext context;
单击“系统 > 权限 > 用户 > 添加用户”,创建一个人机用户,例如developuser。 “用户组”需加入“developgroup”和“supergroup”组,设置其“主组”为“supergroup”。 “角色”加入developrole。 使用新建的developuser用户登录FusionInsight
/opt/test/conf/user.keytab 说明: user.keytab文件从下载用户flume_hdfs的kerberos证书文件中获取,另外,确保用于安装和运行Flume客户端的用户对user.keytab文件有读写权限。 hdfs.useLocalTimeStamp 是否使用本地时
/opt/test/conf/user.keytab 说明: user.keytab文件从下载用户flume_hdfs的kerberos证书文件中获取,另外,确保用于安装和运行Flume客户端的用户对user.keytab文件有读写权限。 hdfs.useLocalTimeStamp 是否使用本地时
给集群,由集群中的主控节点(master node)分发代码,将任务分配给工作节点(worker node)执行。一个拓扑中包括spout和bolt两种角色,其中spout发送消息,负责将数据流以tuple元组的形式发送出去;而bolt则负责转换这些数据流,在bolt中可以完成计
单击“配置”,显示服务池配置组管理页面。 在“系统资源调整基数”分别修改参数“CPU(%)”和“Memory(%)”。 修改“系统资源调整基数”将限制Flume、HBase、HDFS、Impala和YARN服务能够使用节点的最大物理CPU和内存资源百分比。如果多个服务部署在同一节点,则所有服务使用的最大物理资源百分比不能超过此参数值。
t Manager创建恢复DBService与Kafka任务恢复CDL数据。只支持创建任务手动恢复数据。 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的DBService与Kafka数据。
如果您需要提前结束请手动取消授权。 授权类型:支持“普通授权”和“高级授权”。 普通授权:将默认创建访问委托和只读集群用户,运维支持人员将具有临时权限访问您的集群Manager界面。 高级授权:将默认创建访问委托和操作集群用户,运维支持人员将具有临时权限操作您的集群Manager界面。
的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd>.[编号].log.zip”。最多保留最近的20个压缩文件,压缩文件保留个数和压缩文件阈值可以配置 表1 JobGateway日志列表 日志类型 日志文件名 描述 jobserver运行日志 job-gateway.log
待五分钟,查看告警是否消除。 是,处理完毕。 否,再次执行6,等待五分钟,查看告警是否消除,若还未消除,执行8。 重启实例期间实例不可用,当前实例节点的ClickHouse业务会执行失败。 收集故障信息 在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。
分钟,查看告警是否消除。 是,处理完毕。 否,再次执行6,等待五分钟,查看告警是否消除,如果还没有清除请执行8。 重启实例期间实例不可用,当前实例节点的ClickHouse业务会执行失败。 收集故障信息 在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。
参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 数据库进入只读模式,业务数据丢失。 数据库进入只读模式,上层服务写业务操作相关数据丢失。
txt文件,并在文件内写入如下内容。 1,100 在HDFS中新建一个目录/tmp/input,并将log1.txt文件上传至此目录。 在HDFS客户端,执行如下命令获取安全认证。 cd /opt/client kinit -kt '/opt/client/Spark/spark/conf/user.keytab'
ID”列的ID,单击“Logs”列的“Logs”,查看并保存Taskmanager日志,执行7。 图3 单击“Attempt ID”列的ID 图4 单击“Logs” 使用具有当前Flink作业的管理操作权限的用户登录Manager,选择“集群 > 服务 > Flink”,单击“Flink WebUI”后的链接,单击
通过算子导出文件或算子模板文件将字段配置信息导入到算子中。 导出操作 将算子的字段配置信息以json文件导出保存到本地。 前提条件 获取登录“Loader WebUI”的账户和密码。 操作步骤 关联操作 登录“Loader WebUI”界面。 登录FusionInsight Manager系统,具体请参见访问集群Manager。
ID”列的ID,单击“Logs”列的“Logs”,查看并保存Taskmanager日志,执行11。 图3 单击“Attempt ID”列的ID 图4 单击“Logs” 使用具有当前Flink作业的管理操作权限的用户登录Manager,选择“集群 > 服务 > Flink”,单击“Flink WebUI”后的链接,单击
<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号].log.zip”。默认最多保留最近的20个压缩文件,压缩文件保留个数和压缩文件阈值可以配置。 表1 Kafka日志列表 日志类型 日志文件名 描述 运行日志 server.log Broker进程的server运行日志。
RocksDB的Compaction压力过大,同时会存在“ALM-45646 RocksDB的Pending Compaction持续超过阈值”和“ALM-45647 RocksDB的Pending Compaction预估总大小持续超过阈值”告警。 Level0层SST文件数过多。 处理步骤
通过算子导出文件或算子模板文件将字段配置信息导入到算子中。 导出操作 将算子的字段配置信息以json文件导出保存到本地。 前提条件 获取登录“Loader WebUI”的账户和密码。 操作步骤 关联操作 登录“Loader WebUI”界面。 登录FusionInsight Manager系统
Optimizer:优化器,分为逻辑优化器和物理优化器,分别对HQL生成的执行计划和MapReduce任务进行优化。 Executor:按照任务的依赖关系分别执行Map/Reduce任务。 ThriftServer:提供thrift接口,作为JDBC的服务端,并将Hive和其他应用程序集成起来。