检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
场景三: 假设客户每天原始日志5TB(日志平均速率58MB/s),日志平均存储30天,30天原始日志总量为150TB,日志存储方式为一主一副本。
)或者第三方云厂商的日志采集到华为云LTS。
数据容灾 通过日志数据多副本方式实现数据容灾。 父主题: 安全
从表格构建 高级场景下使用,维护机制更灵活。 需要构建和维护对应的表格,过程相对繁琐。 从字典函数构建 基于逻辑动态构建字典,特定场景下适用。 较为高级,不易于维护。 从其他表达式构建 从日志事件的字段中动态提取映射关系,特定场景下适用。 较为高级,不易于维护。
快照日志(Snapshot Log): 快照日志是ZooKeeper 内存数据状态的序列化表示,它包含了ZooKeeper数据树在某个时间点的完整副本。 快照日志的存储位置与事务日志相同,也在dataLogDir或dataDir指定的目录下。
日志搜索与分析 将LTS日志查询页面嵌入用户自建系统 本实践主要介绍通过统一身份认证服务IAM的联邦代理机制实现用户自定义身份代理,再将LTS登录链接嵌入至客户自建系统实现无需在华为云官网登录就可在自建系统界面查询LTS日志。
在上面的示例中,第一个日志条目是KafkaServer在启动时产生的信息日志;第二个是一个警告,表明某个分区的一个同步副本(in-sync replica)与broker断开了连接;第三个是一个错误日志,表明在控制器故障转移期间发生了错误,并尝试为某个分区选择新的领导者时失败了。
如何从第三方云厂商将日志搬迁到华为云LTS? 若用户是在第三方云厂商使用日志服务,有大量数据在第三方云厂商对象存储上,希望将日志搬迁到华为云,对于不同的日志类型,请参考如下方法: 热日志(用于搜索分析):典型保存7-14天,用于应用运维,该日志不需要搬迁到华为云。
构造请求 日志冗余存储 日志数据以多副本方式存储,保障数据可靠性。 / 日志转储OBS LTS支持将日志转储到对象存储服务OBS,并支持转储到加密OBS桶。用户可以以更低成本保存更长时间的日志,同时可以借助OBS的数据保护技术。 转储OBS 父主题: 安全
分布式消息服务Kafka版(DMS) 分布式消息服务Kafka版(Distributed Message Service for Kafka)是一款基于开源社区版Kafka提供的消息队列服务,具备高效可靠的消息异步传递机制,向用户提供计算、存储和带宽资源独占式的Kafka专享实例。
数据生效机制 日志结构化只对新增结构化配置之后写入的数据生效。 不涉及。 返回结果 默认最多返回100条数据。 如果需要返回更多数据,可以使用SQL查询语法单独配置返回查询结果。 不涉及。 LIMIT上限为5000条。 不涉及。
标准存储量:日志标准存储量为压缩后的日志数据、索引数据、副本数据之和,这些空间约等于原始日志数据大小。标准存储量统计是指在选定时间范围内最新的存储总量。 原始日志流量:原始日志数据的大小。 基础转储流量:开启日志转储计费功能后,才会显示基础转储流量。
同时开启“SASL PLAIN机制”。详细操作请参考购买实例。
日志存储空间:日志存储空间为压缩后的日志数据、索引数据、副本数据之和,这些空间约等于原始日志数据大小。 示例:原始日志为10GB,那么一天存储最大收费为 0.000479*24*10=0.12元(金额如果遇小数点,则保留小数点后两位,第三位四舍五入。
日志转储基于复制的转储机制,在LTS设置的存储时间内转储至OBS的日志,不会在LTS被删除。 同时LTS还支持转储DWS/DIS/DLI/DMS,让用户实现日志数据便捷在云服务间流转,快速构建水平解决方案。
完善的自我保护机制。为保证运行在服务器上的ICAgent,不会明显影响您服务器上其他服务的性能,ICAgent在CPU、内存及网络使用方面都做了严格的限制和保护机制。 ICAgent结构化解析规则 日志接入前,您需要提前了解ICAgent采集的结构化解析规则,方便快速操作。
日志转储:日志转储基于复制的转储机制,将需要长期存储的日志数据转储至对象存储服务(OBS)、数据接入服务(DIS)或分布式消息服务(DMS)中长期保存,并且不会在LTS被删除。
iframe内嵌功能依赖浏览器允许第三方Cookie,具体设置方法请以实际使用的浏览器为准,例如chrome浏览器参考如下方法:设置->隐私和安全->第三方Cookie->允许第三方Cookie。
iframe内嵌功能依赖浏览器允许第三方Cookie,具体设置方法请以实际使用的浏览器为准,例如chrome浏览器参考如下方法:设置->隐私和安全->第三方Cookie->允许第三方Cookie。
input { stdin {} } output { kafka { # 配置地址 bootstrap_servers => "${ip}:${port}" # 配置topic topic_id => "${logGroupId}_${logStreamId}" # 配置消息确认机制