检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
按照指定格式对字符串进行格式化。 str_join 通过连接符将输入的字符串连接生成一个新的字符串。 str_zip 将两个值或表达式的字符串进行并发分裂然后再合并成一个字符串。 排序、反转、替换 str_sort 字符串排序。 str_reverse 将一个字符串进行反转。 str_replace 根据规则将旧字符串替换成新字符串。
数示例等。 函数列表 函数 说明 e_compose 用于组合一系列操作。 常用于e_if、e_switch、e_if_else中组合操作。 依次调用操作,将日志传递转换并返回最后的日志。 对于某一条日志,如果其中某一操作删除了日志,则不会再执行后续操作。 支持和其他函数组合使用。
日志可视化相关的功能支持全部用户使用的局点有:华南-广州、华北-北京四、华北-乌兰察布二零一、华北-乌兰察布一、华东-上海一、华东-上海二、中国-香港、西南-贵阳一、亚太-新加坡、华北-北京一;支持部分白名单用户使用的局点有:亚太-曼谷、华南-深圳、中东-利雅得、亚太-雅加达、华北-乌兰察布二零二,其他局点暂不支持该功能。
志采集的工具,运行在需要采集日志的主机中。 操作视频 前提条件 安装ICAgent前,请确保本地浏览器的时间、时区与主机的时间、时区一致。如果不一致,可能会导致日志上报出错。 安装ICAgent的限制说明 Linux环境:ICAgent支持的Linux操作系统,请参考Linux操作系统。
但是日志转储至OBS、DIS后,储存日志等功能由OBS和DIS独立计费,收费详情请参见:华为云定价。 目前华北-北京一、华北-北京二、华南-广州-友好用户环境、华南-深圳、华北-乌兰察布一、西南-贵阳一、华东-上海二、华东-青岛局点已全部开启日志转储计费功能。 提供如下转储日志样例,方便进行流量统计举例说明:原始日志:"192
FlinkLtsLogConsumer提供了订阅云日志服务中某一个日志组中单个或者多个日志流的能力,支持Exactly Once语义,在使用时,用户无需关心日志流中shard数量的变化,FlinkLtsLogConsumer会自动感知。 Flink中每一个subtask启动一个LTS SDK的consumer
10:30:00开始生效,开始抵扣时间为下一个整点2023/07/11 11:00:00。 定向使用 所有企业项目均可使用。 限定企业项目使用套餐包,选择特定企业项目。 如果您没有开通企业管理服务,将无法看到企业项目选项。开通方法请参见如何开通企业项目。 表2 一键测算参数说明 参数 说明 区域
变化趋势,并没有对全量数据进行分析,是一种采样结果。 支持通过查询时间和查询条件过滤日志进行分析。 快速分析是对通过查询语句查询到的日志进行分析,当查询到的日志数目为零时,快速分析没有结果。 支持将快速分析生成查询语句。 单击快速分析的某一行分析结果,可自动生成查询语句,查询日志并生成新的快速分析。
LTS支持日志告警能力,包括关键词告警和SQL告警。 关键词告警:对日志流中的日志数据进行关键词统计,通过设置告警规则,监控日志中的关键词,通过在一定时间段内,统计日志中关键字出现的次数,实时监控服务运行状态。 SQL告警:支持将日志数据进行结构化,通过配置SQL告警规则,定时查询结构化
s-resource-statistics),可以通过日志告警功能实现自定义日志资源使用量预警。 参数为“或”关系,当任意一个参数满足条件时,告警列表会产生一条告警。 该开关默认为关闭状态,当开启后表示当日志资源使用量超过1024GB时,会触发告警规则。 开启该开关后,默认会自动
json_extract 用于从JSON对象或JSON数组中提取一组JSON值(数组或对象)。 json_extract(x, json_path) JSON格式的string类型 json_extract_scalar 用于从JSON对象或JSON数组中提取一组标量值(字符串、整数或布尔值)。如果指定
日志管理 LTS日志使用冷存储保存后遇到问题怎么办? 设置多账号日志汇聚后如何只保存一份日志内容?
TML,则可能导致通知失败。对于短信、语音等纯文本格式的内容,一般内容截断不会导致通知失败。 建议根据通知方式的限制合理配置内容模板,避免内容超长导致通知失败。各个通知方式的限制如下(中文、英文、数字或标点符号都算一个字符): 短信 具体限制请短信发送限制。 语音 通知内容限制为256个字符。
建议您优先使用转储至DMS。 目前此功能仅支持华北-乌兰察布二零一、华北-乌兰察布二零二、华北-北京四、华北-北京一、华东-上海二、华南-广州、中国-香港、亚太-新加坡、华东-上海一局点,其他局点需要给DIS服务提交工单申请开通才能使用。详细操作请参考提交工单。 前提条件 日志已接入LTS,详细请参考日志接入。
podname limit 500 offset 500 参数说明如下所示: offset:指定从某一行开始读取分析结果。 limit:指定当前请求读取的行数,最大值为100,000。如果一次读取太多,会影响网络延时和客户端的处理速度。 例如,通过* | select hostid,podname
日志接入前,您可以提前了解ICAgent采集的结构化解析规则,方便您快速操作。支持组合解析,一个日志流的每个采集配置可以配置不同的结构化解析规则。 支持以下日志结构化解析规则: 单行-全文日志:采集的日志文件中,如果您希望每一行日志在LTS界面中都显示为一条单独的日志数据,则选择单行日志。 多行-全文日志:采集的
在费用中心控制台,存储量的单位是GB/小时。实际上100GB/月=100GB*1个数量*24小时*30天=72000GB/小时,两者是同一个意思;若购买的是2个数量100GB的资源包,总量2个数量*100GB/月=100GB*2个数量*24小时*30天=144000GB,根据购买数量依次类推。
日志搜索与分析 查看LTS实时最新日志,每一次加载数据时延是多久? 无法查看上报到LTS的日志怎么办? 在LTS控制台如何手动删除日志数据? 在LTS页面无法搜索日志时怎么办?
通过事件判断可以更好地对符合特定条件的数据进行相应操作,让加工逻辑更可靠。本文主要介绍使用函数进行事件判断的常见场景和最佳方案示例。 场景一:判断字段是否存在 原始日志 { "a": "a_value" } 加工规则 e_if(e_has("a"),e_set("has_a"
lts-flink-connector source和sink日志不能为同一个日志流。 flink消费保证最终一致性,即您可以获取到这条日志流的全部内容,但由于时间为服务端时间,所以在获取日志流的过程中,可能导致获取到的日志数量跟LTS页面查询的日志数量不一致。 语法结构 认证用的ak和sk硬编码到代码中