检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
String kafka 名称 最小长度:1 最大长度:256 connect_info 是 connect_info object kafka连接信息。购买kafka时,SASL_SSL是否配置,如果有,则需要填写账号密码 表4 connect_info 参数 是否必选 参数类型 描述
解析或云端结构化解析。 ICAgent结构化解析是在采集侧做结构化,支持插件组合解析,单个日志流的多个采集配置支持不同结构化解析规则,推荐使用ICAgent结构化解析的方式,更多内容请参考ICAgent结构化解析规则说明。 云端结构化解析是通过不同的日志提取方式将日志流中的日志进
SQL IP函数 使用限制 LTS提供的IP与地域之间的关系,来自于第三方IP库,且数据是周期性更新(约半年),不承诺IP与地域关系完全正确;后续LTS会优化,缩短IP库的更新周期,为用户提供更好的体验。 单IP函数聚合查询的数据量上限为500万,查询的数据超出上限可能导致查询超时。
差1min30s),建议优先使用ICAgent结构化方式上报日志,云端结构化方式会引起日志时间乱序严重从而导致无法在统计周期内处理日志,使得统计结果存在偏差。 前提条件 目前此功能在邀测中,支持华北-北京四、华北-乌兰察布一局点,针对白名单用户内测使用,后续将全网开放,敬请期待!
ignore:直接忽略。 strict:直接报错,丢弃此条日志数据。 replace(默认值):使用半角问号(?)替换无法识别部分。 xmlcharrefreplace:使用对应XML字符替换无法识别部分。 ignore_multi_fields Num 否 指定单个返回参数的值的个数。
参数说明 参数名称 参数类型 是否必填 说明 Integer_or_negative Number 是 传入偏移量。如果需要传入负数,请使用op_neg(positive) 。例如-1用op_neg(1)表示。 返回结果 返回偏移后的时间。 函数示例 测试数据 { "time":
清理日志文件,不会影响转储后的日志。 当前LTS支持以下表1,请根据您的业务场景进行日志转储服务选择。 表1 转储服务类型 转储服务类型 使用场景 对象存储服务 OBS 对象存储服务(Object Storage Service,OBS)提供海量、安全、高可靠、低成本的数据存储能
工作负载(选全部工作负载使用“ALL_DEPLOYMENTS”)。 说明: 自动映射时需要罗列出每个工作负载。 namespace 是 String 命名空间。 files 是 Array of AomMappingfilesInfo objects 日志详细(全部日志使用“ALL_FILES”)。
数由digits指定。expr可以是整数或浮点数,但digits必须是整数。返回值的类型由expr的类型决定。如果没有指定digits,则使用默认值0。如果digits是负数,则返回expr四舍五入后的整数。当expr是非数字值时,会被转换为数字0。如果expr是无限位数的数字,
选择查询和分析的时间范围为今天某3小时,并执行如下查询和分析语句。其中86400表示当前时间减去86400秒(1天),date_trunc('hour',__time)表示使用date_trunc函数将时间对齐到小时。 查询和分析语句 * | SELECT t_time, ts_compare(PV, 86400)
选择查询和分析的时间范围为今天某3小时,并执行如下查询和分析语句。其中86400表示当前时间减去86400秒(1天),date_trunc('hour',__time)表示使用date_trunc函数将时间对齐到小时。 查询和分析语句 SELECT t_time, ts_compare(PV, 86400)
返回值类型:bigint类型 示例1:使用approx_distinct函数估算不重复的clientIp字段值,标准误差为2.3%。 表3 查询分析结果 类型 场景 查询语句 SELECT approx_distinct(clientIp) 返回结果 1 示例2:使用approx_distin
ID。当创建DMS转储时,必填此参数。 创建DMS转储前,需要使用kafka ID以及kafka Topic进行实例注册。详情见接口注册DMSkafka实例 最小长度:36 最大长度:36 kafka_topic String DMS转储kafka topic。 创建DMS转储前,需要使用kafka ID以及kafka
工作负载(选全部工作负载使用“ALL_DEPLOYMENTS”)。 说明: 自动映射时需要罗列出每个工作负载。 namespace 是 String 命名空间 files 是 Array of CreateAomMappingfilesInfo objects 日志详细(全部日志使用“ALL_FILES”)。
1" } 加工规则 e_set("geo_parse", geo_parse("192.168.0.1")) 加工结果(私网地址结果为空,使用公网地址可解析出内容) ip: 192.168.0.1 geo_parse: {"city": "", "province": "", "country":
les”或偏移量,如“-08:00”。 ceil函数 使用时间单位对时间戳进行四舍五入,单位可以是SECOND、MINUTE、 HOUR、 DAY、 WEEK、 MONTH、 QUARTER或 YEAR。 floor函数 使用时间单位对时间戳进行向下舍入,单位可以是SECOND、MINUTE、
regex_rules 否 String 正则表达式(使用正则结构化规则时候需要)。 最大长度:5000 layers 否 Integer 最大解析层数(使用JSON方式结构化需要)。 最大值:3 tokenizer 否 String 分隔符(使用分隔符结构化时需要)。 log_format
REGEXP_LIKE(str1, '\.(jpg|jpeg|png|gif)$') REPLACE(expr, pattern, replacement) 使用replacement替换expr中与pattern相同的子字符串。 SELECT REPLACE(expr,pattern, replacement)
ID。当创建DMS转储时,必填此参数。 创建DMS转储前,需要使用kafka ID以及kafka Topic进行实例注册。详情见接口注册DMSkafka实例 最小长度:36 最大长度:36 kafka_topic String DMS转储kafka topic。 创建DMS转储前,需要使用kafka ID以及kafka
project_id String 项目id title String 仪表盘名称 useSystemTemplate Boolean 是否使用模板 状态码: 400 表5 响应Body参数 参数 参数类型 描述 message ErrorMessagebody object 错误信息body体