检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
streamDisabled=true filter 否 String 无 过滤器参数,值为要选中的过滤器的名称及选中项。 key1、key2为过滤器名称,value1、value2为过滤器key1需要选中的值,value3、value4为过滤器key2需要选中的值。多个过滤器按照;分隔,多个选中项按照,分隔。 使用
日志流配置参数表 参数 说明 自动对日志流进行结构化配置和索引配置 开启该按钮,日志流结构化配置为CTS系统模板,索引配置时将所有CTS解析出来的字段打开快速分析按钮。配置结构化和索引后,才能对CTS日志进行SQL分析,并提供可视化图表。 单击“提交”。 父主题: 使用云服务接入LTS
本日志方式将日志上报至LTS服务,详细操作请参考云主机ECS文本日志接入LTS。 Nginx日志示例以及字段含义 介绍访问日志和错误日志的示例和字段说明。 表1 访问日志字段说明 参数 说明 示例 $remote_addr 客户端地址。 211.28.65.253 $remote_user
streamDisabled=true filter 否 String 无 过滤器参数,值为要选中的过滤器的名称及选中项。 key1、key2为过滤器名称,value1、value2为过滤器key1需要选中的值,value3、value4为过滤器key2需要选中的值。多个过滤器按照;分隔,多个选中项按照,分隔。 使用
的e_not_has函数删除不存在srcaddr和dstaddr字段的日志。 通过流程控制函数中的e_if函数、操作符函数中的op_not函数、事件检查函数中的e_match函数删除srcaddr和dstaddr字段不符合IP地址格式的日志。 通过流程控制函数中的e_if函数、操
'";=()[]{}@&<>/:\\?\n\t\r 日志分析:默认开启“日志分析”,配置的字段索引支持SQL可视化分析。 字段索引:云日志服务LTS默认为部分内置保留字段创建字段索引,例如hostIP、hostName、pathFile字段。更多内置保留字段请参考设置LTS日志索引配置。 单击“提交”,日志接入成
自建中间件 中间件-MySQL日志 中间件-Redis日志 中间件-Kafka日志 中间件-Nginx日志 中间件-ElasticSearch日志 中间件-Zookeeper日志 中间件-IIS日志 服务器-DNS日志 中间件-Flink日志 父主题: 日志接入
fieldType 是 String 字段类型 枚举值: string long float json fieldName 是 String 字段名称 最小长度:1 最大长度:256 caseSensitive 否 Boolean 是否大小写敏感 缺省值:false includeChinese
关闭“自定义元数据”,使用ICAgent系统默认配置的字段上报到LTS,不需要用户配置且ICAgent系统不支持配置。 开启“自定义元数据”,根据用户选择的内置字段和自定义键值增加字段上报到LTS。 系统内置字段:勾选需要设置的内置字段。 自定义键值对:单击“添加”,输入键值key和键值Value。
关闭“自定义元数据”,使用ICAgent系统默认配置的字段上报到LTS,不需要用户配置且ICAgent系统不支持配置。 开启“自定义元数据”,根据用户选择的内置字段和自定义键值增加字段上报到LTS。 系统内置字段:勾选需要设置的内置字段。 自定义键值对:单击“添加”,输入键值key和键值Value。
日志流配置参数表 参数 说明 自动对日志流进行结构化配置和索引配置 开启该按钮,日志流结构化配置为VPC系统模板,索引配置时将所有VPC解析出来的字段打开快速分析按钮。配置结构化和索引后,才能对VPC日志进行SQL分析,并提供可视化图表。 自动为日志流添加标签:log_type=vpc_flow
日志流配置参数表 参数 说明 自动对日志流进行结构化配置和索引配置 开启该按钮,日志流结构化配置为APIG系统模板,索引配置时将所有APIG解析出来的字段打开快速分析按钮。配置结构化和索引后,才能对APIG日志进行SQL分析,并提供可视化图表。 自动为日志流添加标签:log_type=apig_access
描述 offset 否 Integer 查询游标,初始传入0,后续从上一次的返回值中获取。 最小值:0 最大值:1024 limit 否 Integer 每页数据量,最大值为100。 最小值:0 最大值:100 请求参数 表3 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token
需要构建和维护对应的表格,过程相对繁琐。 从字典函数构建 基于逻辑动态构建字典,特定场景下适用。 较为高级,不易于维护。 从其他表达式构建 从日志事件的字段中动态提取映射关系,特定场景下适用。 较为高级,不易于维护。 直接构建 e_dict_map({"400": "error", "200":
ExecutionGraph - Job 83529a6b73e4a3f7046f695a27f67f32 failed. 表1 Flink系统日志字段含义 字段 说明 示例 时间戳 该条日志的生成时间。 2023-10-23 14:35:00,000 日志级别 该条日志的重要性或紧急程度,常见
日志生成指标规则配置参数 过滤条件分组数量<=10个,每个分组中关联关系数量<=10。 分组聚合(Group By)的字段数量<=5。 分组聚合(Group By)字段基数<=100。 不涉及。 日志时间 日志时间与LTS系统时间差<1小时,否则任务执行失败,无法生成指标上报AOM。
日志流配置参数表 参数 说明 自动对日志流进行结构化配置和索引配置 开启该按钮,日志流结构化配置为ELB系统模板,索引配置时将所有ELB解析出来的字段打开快速分析按钮。配置结构化和索引后,才能对ELB日志进行SQL分析,并提供可视化图表。 自动为日志流添加标签:log_type=elb_7layer_access
函数工作流FunctionGraph接入LTS 云数据库GaussDB接入LTS 图引擎服务GES接入LTS 云数据库 TaurusDB接入LTS 云数据库GeminiDB接入LTS 云数据库GeminiDB Mongo接入LTS 云数据库GeminiDB Cassandra接入LTS
云日志服务提供数据加工功能,用于数据的规整、富化、脱敏和过滤。 数据规整:针对混乱格式的日志进行字段提取、格式转换,获取结构化数据以支持后续的流处理、数据仓库计算。 数据富化:对日志(例如订单日志)和维表(例如用户信息表)进行字段连接(JOIN),为日志添加更多维度的信息,用于数据分析。 数据脱敏:对数
ice信息。 解决方案:接下来分别介绍加工语法的使用方法,以下1-7的加工语法需要综合使用。 将一条日志拆分成三条日志,给主题赋予三个不同值再进行分裂,经过分裂后会分成除topic不同,其他信息相同的三条日志。 e_set("topic", "server_status,client_status