检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
产生告警的集群或系统名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 备Manager的配置文件没有更新。当发生主备倒换时,同步异常的配置文件可能会丢失。Manager及部分组件可能无法正常运行。 可能原因 主备Manager节点间链路中断,
该工具应该由启动HBase进程的系统用户运行。 如果处于安全模式,请确保备用集群的HBase系统用户具有主集群HDFS的读取权限。因为它将更新HBase系统ZooKeeper节点和HDFS文件。 主集群HBase故障后,主集群的ZooKeeper,文件系统和网络依然可用。 场景介绍
必配项,表示作业名称。 “-u” 必配项。 指定参数值为“y”表示更新作业参数并运行作业,此时需配置“-jobType”、“-connectorType”和“-frameworkType”。指定参数值为“n”表示不更新作业参数直接运行作业。 “-jobType” 表示作业类型,当“-u”的值为“y”时,必须配置。
已安装HBase客户端,例如安装目录为“/opt/client”。以下操作的客户端目录只是举例,请根据实际安装目录修改。在使用客户端前,需要先下载并更新客户端配置文件,确认Manager的主管理节点后才能使用客户端。 操作步骤 以客户端安装用户,登录安装HBase客户端的节点。 进入HBase客户端安装目录:
已安装HBase客户端,例如安装目录为“/opt/client”。以下操作的客户端目录只是举例,请根据实际安装目录修改。在使用客户端前,需要先下载并更新客户端配置文件,确认Manager的主管理节点后才能使用客户端。 操作步骤 以客户端安装用户,登录安装HBase客户端的节点。 进入HBase客户端安装目录:
Trash”。 user/.Trash 转换为低频访问存储天数 指定在对象最后一次更新后多少天,受规则影响的对象将转换为低频访问存储。至少设置为30天。 30天 转换为归档存储天数 指定在对象最后一次更新后多少天,受规则影响的对象将转换为归档存储。若同时设置转换为低频访问存储和转换为
使用HDFS路径。 hdfs:///flink/checkpoints 否 state.savepoints.dir Flink用于恢复和更新作业的保存点存储目录。当触发保存点的时候,保存点元数据信息将会保存到该目录中。 hdfs:///flink/savepoint 安全模式下必配
在分组模式下执行应用,当HDFS上的part文件为空时,发现JobHistory首页面上不显示该part对应的app。 回答 JobHistory服务更新页面上的app时,会根据HDFS上的part文件大小变更与否判断是否刷新首页面的app显示信息。若文件为第一次查看,则将当前文件大小与0作比较,如果大于0则读取该文件。
字符串空格清除转换:字符串空格清除步骤,配置已生成的字段通过清除空格,转换出新的字段。 过滤行转换:过滤行步骤,配置逻辑条件过滤掉含触发条件的行。 更新域:更新域步骤,配置当满足某些条件时,更新指定字段的值。 输出类型 文件输出:文本文件输出步骤,配置已生成的字段通过分隔符连接并输出到文件。 表输出:关系型数据
字符串空格清除转换:字符串空格清除步骤,配置已生成的字段通过清除空格,转换出新的字段。 过滤行转换:过滤行步骤,配置逻辑条件过滤掉含触发条件的行。 更新域:更新域步骤,配置当满足某些条件时,更新指定字段的值。 输出类型 文件输出:文本文件输出步骤,配置已生成的字段通过分隔符连接并输出到文件。 表输出:关系型数据
必配项,表示作业名称。 “-u” 必配项。 指定参数值为“y”表示更新作业参数并运行作业,此时需配置“-jobType”、“-connectorType”和“-frameworkType”。指定参数值为“n”表示不更新作业参数直接运行作业。 “-jobType” 表示作业类型,当“-u”的值为“y”时,必须配置。
TP服务器正常后检查告警是否恢复。 是,处理完毕。 否,执行4。 检查从NTP服务器获取的时间是否持续未更新。 继续查看告警附加信息,是否提示从NTP服务器获取时间持续未更新。 是,执行4.b。 否,执行5。 联系NTP服务器的服务商,解决NTP服务器异常。确保NTP服务器正常后检查告警是否恢复。
Kafka安全使用说明 Kafka API简单说明 新Producer API 指org.apache.kafka.clients.producer.KafkaProducer中定义的接口,在使用“kafka-console-producer.sh”时,默认使用此API。 旧Producer
ClickHouse应用开发规范 Doris应用开发规范 Flink应用开发规范 Hudi应用开发规范 以下所有第三方教程均来自于华为云社区,由于云服务产品持续更新与迭代,相关社区教程中的内容可能存在时效性,不一定与产品最新版本能力完全保持一致,相关内容仅供学习和参考。 表2 开发者社区精选最佳实践 分类
字符串空格清除转换:字符串空格清除步骤,配置已生成的字段通过清除空格,转换出新的字段。 过滤行转换:过滤行步骤,配置逻辑条件过滤掉含触发条件的行。 更新域:更新域步骤,配置当满足某些条件时,更新指定字段的值。 输出类型 文件输出:文本文件输出步骤,配置已生成的字段通过分隔符连接并输出到文件。 表输出:关系型数据
界面显示以下信息表示配置刷新更新成功: ReFresh components client config is complete. Succeed to refresh components client config. 在Master节点使用客户端。 在已更新客户端的主管理节点,例如
当前ClickHouse可支持上万列的宽表横向扩展。 在大部分场景下,有大表两表join以及多表join的场景,且多个join的表数据变化更新频率较低,这种情况,建议对多个表join查询逻辑提前进行加工处理,将处理后的数据写入到一个宽表中,宽表中包含所有要查询的数据字段,以供后续应用完全自助OLAP的高性能查询。
字符串空格清除转换:字符串空格清除步骤,配置已生成的字段通过清除空格,转换出新的字段。 过滤行转换:过滤行步骤,配置逻辑条件过滤掉含触发条件的行。 更新域:更新域步骤,配置当满足某些条件时,更新指定字段的值。 输出类型 文件输出:文本文件输出步骤,配置已生成的字段通过分隔符连接并输出到文件。 表输出:关系型数据
loader-tool工具使用示例 操作场景 loader-tool工具支持通过作业模板或参数选项的方式,对连接器或者作业进行创建、更新、查询、删除等操作。 本文将以“从SFTP服务器导入数据到HDFS”的作业为例,通过引用作业模板的方式,介绍loader-tool工具的使用方法。
3.3.0及之后版本。 使用约束 新增列在设置默认值前,如果数据已经进行了重写,则查询历史数据不支持返回列的默认值,返回NULL。数据入库、更新、执行Compaction、Clustering都会导致部分或全部数据重写。 列的默认值设置要与列的类型一致,如不一致会进行类型强转,导致默认值精度丢失或者默认值为NULL。