检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
接入LTS 图引擎服务GES接入LTS 云数据库 TaurusDB接入LTS 云数据库GeminiDB接入LTS 云数据库GeminiDB Mongo接入LTS 云数据库GeminiDB Cassandra接入LTS 华为HiLens接入LTS 设备接入IoTDA接入LTS AI开发平台
转储数据可靠性 某批次数据格式合法时,保证转储数据至少一次(At Least Once)。当DWS集群负载较高、网络错误时,会有写入响应超时,可能导致数据重复,因此无法保障数据精确一次(Exactly Once)。 不涉及。
或SDK跨云上报日志到LTS 使用Flume采集器上报日志到LTS 通过ECS接入LTS采集Zabbix数据 采集多渠道日志数据到LTS
使用DSL加工函数清洗LTS日志数据 使用DSL加工函数进行事件判断 使用DSL加工函数处理日期时间 使用DSL加工函数对LTS日志数据脱敏 文本解析 数据富化
返回结果 返回字典形式数据。 函数示例 单个IP查询。
数据传输不可靠:移动端日志数据量多且频繁,传输速度慢,也极易出现丢失,对业务分析造成一定影响。 数据处理不方便:原始数据不方便处理,不方便快速与大数据平台实现对接。
在概览页签,单击工作空间下方的数据开发,进入数据开发详情页面。 在作业开发页面,单击新建作业,按照提示填写参数后,单击“确定”。详细操作请参考新建作业。 在已创建成功的作业页面,将DLI SQL拖动到空白区域。
函数示例 测试数据:无 加工规则 e_set("str_strip", str_lstrip("**123**", "*")) 加工结果 str_strip: 123** str_rstrip 删除字符串结尾指定的字符。
说明 该函数支持自动转换数据类型,输入string或者int类型的数据即可。 函数格式 op_div_true(value1, value2) 参数说明 参数名称 参数类型 是否必填 说明 value1 数字字符串/ Number 是 待计算的值。
同时大量小文本文件可合并转储为大文件,提高数据处理性能。 数据接入服务(Data Ingestion Service,简称DIS) 通过AOM服务,可以进行站点访问统计,可以将相关日志上报给AOM,对其进行监控与告警。
查询数据失败。 请根据sqlite3 error code查询具体情况。 LTS.0108 Close database failed, code=%@. 关闭数据库失败。 请根据sqlite3 error code查询具体情况。
检查数据库实例状态 父主题: 附录
函数示例 示例1: 测试数据 { "ctx1": 123, "ctx2": 234 } 加工规则 e_set("op_or", op_or(v("ctx1"),v("ctx2"))) 加工结果 ctx1: 123 ctx2: 234 op_or: true 示例2: 测试数据
drop_packed Boolean 否 打包数据后是否删除被打包的原数据,默认为true。 true(默认值):输出结果中删除被打包的原数据。 false:输出结果中不删除被打包的原数据。 返回结果 返回被打包后的日志数据。
重要紧急的数据使用立即上报日志reportImmediately接口,即可进行立即上报。 端侧SDK上报的数据是放到labels参数还是contents参数?
文本解析 解析Nginx日志 提取字符串动态键值对 解析CSV格式日志 加工复杂JSON数据 解析与更新JSON数据 父主题: 日志加工(邀测)
测试数据 { "number": 2 } 加工规则 e_set("int_number", ct_int(v("number"))) 加工结果 number: 2 int_number: 2 示例2:将十六进制转换成十进制。
本文档主要介绍使用函数进行日期时间数据类型转换和日期时间偏移。 概念解释 数据类型转换和转换函数 日期时间对象和Unix时间戳的相互转换 日期时间字符串和Unix时间戳的相互转换 日期时间对象和日期时间字符串的相互转换 日期时间偏移 父主题: 日志加工(邀测)
日志消费与加工 DSL加工(邀测) DSL数据加工语法(邀测) 使用定时SQL进行日志加工 使用FunctionGraph服务提供的函数模板进行日志加工 日志生成指标(邀测) 使用消费组管理消费数据(邀测) 使用SDK-API消费日志(邀测)
按量付费: 冷存储量费用=冷存储量(GB)× 每GB单价 无 流量费用 日志读写流量 日志读写流量包括写流量和读流量,详细说明如下: 写流量:数据(压缩后)被上传到日志服务时,按照传输的数据量计算写流量费用。