检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
逻辑or运算。 op_not 逻辑not运算。 op_nullif 判断两个表达式的取值。 op_ifnull 返回第一个值不为None的表达式的值。 op_coalesce 返回第一个值不为None的表达式的值。 e_has 判断字段是否存在。 函数格式 e_has("key") 参数说明
使用DSL加工函数进行事件判断 通过事件判断可以更好地对符合特定条件的数据进行相应操作,让加工逻辑更可靠。本文主要介绍使用函数进行事件判断的常见场景和最佳方案示例。 场景一:判断字段是否存在 原始日志 { "a": "a_value" } 加工规则 e_if(e_has("a")
String Topic的唯一的资源标识。 最小长度:1 最大长度:1024 display_name 否 String Topic的显示名,推送邮件消息时,作为邮件发件人显示。 最小长度:1 最大长度:1024 push_policy 否 Integer 消息推送的策略。 最小值:1
延迟初始化要求 为了避免您的应用在未获取用户的同意前SDK提前处理用户的个人信息。我们提供了SDK初始化的接口 new LTSSDK(userConfig),请保证您的应用获取用户同意后才能调用此接口初始化SDK。 最小化使用功能要求 我们的SDK针对扩展功能和可选的个人信息的处理提供了配置
startTimeNs(消费开始时间)和endTimeNs(消费结束时间),这里的时间指的是服务端时间。 SDK消费保证最终一致性,即您可以获取到这条日志流的全部内容,但由于时间为服务端时间,所以在获取日志流的过程中,可能导致获取到的日志数量跟LTS页面查询的日志数量不一致。 通过startTimeNs/en
keep_fields Tuple 否 返回结果中包含的key信息。支持的key如下列表: city:城市名称。 province:省份名称。 country:国家名称。 isp:所属网络运营商名称。 lat:IP地址所在位置的纬度。 lon:IP地址所在位置的经度。 例如keep_fields=("city"
应用场景2:安全合规 大型企业的每个业务部门都有独立的云账户实现资源隔离,每个业务部门的运维人员需要依赖日志监控告警实现故障定位分析,同时集团安全部门需要统一监控日志,因此多账号的统一日志管理成为企业痛点: 分业务独立运维:客户每个业务模块都有一个独立的账号做资源隔离,依赖日志服务
特别地,如果您是儿童(不满十四周岁的未成年人),在您使用开发者应用和我们的服务前,请务必通知您的父母或其他监护人一起仔细阅读开发者应用隐私声明、本声明,并在您的父母或其他监护人同意或指导后,使用开发者应用和我们的服务或向我们提供信息。如果您是儿童的父母或其他监护人,请确保您监护的儿童在您的同意或指导下
String Topic的唯一的资源标识。 最小长度:1 最大长度:1024 display_name 否 String Topic的显示名,推送邮件消息时,作为邮件发件人显示。 最小长度:1 最大长度:1024 push_policy 否 Integer 消息推送的策略。 最小值:1
} else { fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 201 请求响应成功, 成功创建日志流。 400 BadRequest。非法请求。
String Topic的唯一的资源标识。 最小长度:1 最大长度:1024 display_name 否 String Topic的显示名,推送邮件消息时,作为邮件发件人显示。 最小长度:1 最大长度:1024 push_policy 否 Integer 消息推送的策略。 最小值:1
String Topic的唯一的资源标识。 最小长度:1 最大长度:1024 display_name 否 String Topic的显示名,推送邮件消息时,作为邮件发件人显示。 最小长度:1 最大长度:1024 push_policy 否 Integer 消息推送的策略。 最小值:1
日志转储ID。获取ID有3种方式: 1. 调用查询日志转储接口,返回值有日志转储ID 2. 调用新增日志转储接口,返回值有日志转储ID 最小长度:36 最大长度:36 请求参数 表3 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 从IAM服务获取的用户Token,获取方式请参见:获取用户Token
单击“所属日志组”后的目标框,在下拉列表中选择具体的日志组,若没有所需的日志组,单击“所属日志组”目标框后的“新建”,在弹出的创建日志组页面创建新的日志组。 单击“所属日志流”后的目标框,在下拉列表中选择具体的日志流,若没有所需的日志流,单击“所属日志流”目标框后的“新建”,在弹出的创建日志流页面创建新的日志流。
单击“所属日志组”后的目标框,在下拉列表中选择具体的日志组,若没有所需的日志组,单击“所属日志组”目标框后的“新建”,在弹出的创建日志组页面创建新的日志组。 单击“所属日志流”后的目标框,在下拉列表中选择具体的日志流,若没有所需的日志流,单击“所属日志流”目标框后的“新建”,在弹出的创建日志流页面创建新的日志流。
主机和云服务的日志数据上报至云日志服务LTS后,LTS会根据配置的日志存储时间定时清理日志内容。例如日志存储时间为30天,上报到LTS的日志只保存30天,30天后开始删除日志内容。请以创建日志组或日志流时设置的日志存储时间为准,详情请参考管理日志组和管理日志流。超出存储时间的日志数据
使用切分后的单词进行搜索。初次使用时,LTS已默认进行了分词配置,默认配置的分词符为: , '";=()[]{}@&<>/:\\?\n\t\r 若默认分词符不能满足您的需求时,可按照如下操作进行自定义配置。 注意事项 分词配置只会对配置时间点以后生成的日志生效,之前的日志按照之前配置的分词符进行处理。
} else { fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 200 添加索引配置成功 400 请求参数错误,请根据响应体内容进行修改
中间件-Flink日志 Flink是一个大数据处理引擎的处理框架,是针对流进行的处理。它是Apache旗下的一个框架和分布式的处理引擎,用于对无界和有界的数据进行状态的计算。Flink的核心特点包括高吞吐、低延迟(每秒处理数百万个事件,毫秒级延迟),以及结果的准确性(Flink提供了时间事件(ev
如果在使用ICAgent收集日志过程中遇到CPU占用较高(例如运行速度变慢/程序崩溃)的情况,请确认您配置的日志采集路径下是否有大量的日志文件,建议您定时清理,以减少ICAgent在收集日志过程中带来的系统资源占用。若还是无法解决,请联系技术支持协助。 父主题: 日志接入