检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用于使用指定的第一个分隔符拆分字符串,然后再使用指定的第二个分隔符进行第二次拆分,展示形式为{“KEY1”:”VALUE1”,”KEY2”:”VALUE2”}。无法被二次分割的value值为空。 字段样例 Request:request_id:"e3ac4b70c7d244f080d434e300d8065a”;request_time:
lts-flink-connector仅保证At-Least-Once语义。 lts-flink-connector source和sink日志不能为同一个日志流。 flink消费保证最终一致性,即您可以获取到这条日志流的全部内容,但由于时间为服务端时间,所以在获取日志流的过程中,可能
不涉及。 查询结果排序 默认按照秒级时间从最新开始展示。 不涉及。 模糊查询 在查询语句单个词长度小于255字符 星号(*)或问号(?)不能用在词的开头。 long数据类型和double数据类型不支持使用星号(*)或问号(?)进行模糊查询 不涉及。 搜索时间范围 单次搜索,时间跨度默认不超过30天。
删除”即可删除接入配置信息。 删除接入配置后会导致日志无法正常采集,可能会影响用户日志相关业务异常,且删除后无法恢复,请谨慎操作。 若不需要采集日志,关闭“接入配置开关”列的开关。若需要重新采集日志,需要重新开启“接入配置开关”列的开关。 关闭接入配置后会导致日志无法正常采集,可能会影响用户日志相关业务异常,请谨慎操作。
登录云日志服务控制台,在左侧导航栏中选择“仪表盘 ”。 单击,在“添加仪表盘分组”对话框,自定义填写“分组名称”。 分组名称只支持中英文、数字、中划线、下划线及小数点,且不能以小数点开头或结尾,长度不超过64。 单击“确定”,创建分组成功后。 单击“添加仪表盘”,进入“创建仪表盘”页面,参考表1填写仪表盘相关参数。
当转储其他账号日志时,若委托账号已开通企业项目,则显示委托账号的全部企业项目。 default 日志流名称 选择已创建的日志流。 已配置过DWS集群转储的日志流不能重复配置。 - 集群名称 已创建的集群名称。 test 数据库名称 集群的数据库名称。有两种数据库,分别是“gaussdb”和“postg
e.printStackTrace(); System.out.println(e.getHttpStatusCode()); System.out.println(e.getRequestId());
各开放能力前,我们要求开发者在其产品应用的隐私政策中向您告知其集成SDK处理个人信息的基本情况,并获取您的同意或取得其他合法性基础。但我们无法控制开发者及其开发者应用如何处理开发者所控制的个人信息,也不对其行为负责。我们建议您认真阅读开发者应用相关用户协议及隐私政策,在确认充分了
值以r开头的日志。 精确查询 使用完整的词进行查询。日志服务查询采用的是分词法,精确查询时并不能完全匹配关键词。例如查询语句为abc def,查询结果将包含所有abc和def的日志,无法完全匹配目标短语。如果您要完全匹配短语abc def,可以使用短语查询。更多信息,请参见短语查询、如何精准查询日志。
信息请参见产品介绍。 云日志服务提供了REST(Representational State Transfer)风格API,支持您通过HTTPS请求调用,调用方法请参见如何调用API。 同时云日志服务还提供多种编程语言的SDK供您使用,SDK的使用方法请参见使用SDK接入LTS。
支持Web、移动端iOS、Android和小程序日志接入LTS。 支持采集Logstash、Flume、Beats开源软件中的数据。 支持通过HTTP、HTTPS、Syslog、Kafka等标准协议接入数据。 应用场景 某个外卖平台型电商网站(包括用户、餐厅、配送员等),用户可以在网页、App、微
error_msg String 错误描述 最小长度:1 最大长度:1000 请求示例 删除主机组,可同时删除多个主机组。 DELETE https://{endpoint}/v3/{project_id}/lts/host-group /v3/{project_id}/lts/host-group
如"America/Los_Angeles"或偏移量,如"+08:00",并将用作不包括时区偏移量的字符串的时区。模式和时区必须是字面量。无法解析为时间戳的字符串将返回空值。 SELECT TIME_FORMAT(__time,'yyyy-MM-dd HH:mm:ss','+08:00')
TS 使用Flume采集数据库表数据并且上报至LTS,实现对表数据变动监控。以下示例中的参数介绍请参考使用KAFKA协议上报日志。 在https://github.com/keedio/flume-ng-sql-source页面下载flume-ng-sql-source插件,转换
TS 使用Flume采集数据库表数据并且上报至LTS,实现对表数据变动监控。以下示例中的参数介绍请参考使用KAFKA协议上报日志。 在https://github.com/keedio/flume-ng-sql-source页面下载flume-ng-sql-source插件,转换
在实际情况中,HTTP请求状态码不止以上4种,详情请参见HTTP请求状态码。当http_status字段的值为401、404时,需要更新字典覆盖,否则无法匹配。 加工结果 { "status_desc": "跳转", "http_status": 300, "request_method":
日志组原始名称 log_stream_name 是 String 日志流原始名称 响应参数 无 请求示例 根据告警ID删除活动告警 POST https://{endpoint}/v2/{project_id}/{domain_id}/lts/alarms/sql-alarm/clear
FlinkLtsLogProducer用于将数据写到云日志服务中。producer只支持Flink at-least-once语义,在发生作业失败的情况下,写入云日志服务中的数据有可能会重复,但是绝对不会丢失。 用法示例如下,我们将模拟产生的字符串写入云日志服务: // 将数据序列化成日志服务的数据格式
<mirror> <id>huaweicloud</id> <mirrorOf>*</mirrorOf> <url>https://repo.huaweicloud.com/repository/maven/</url> </mirror> 您可以在华为外部开源仓中获取日志服务Java
在业务分析过程中经常遇到如下痛点: 移动端数据难采集:难以快速采集多种移动端设备,例如Web浏览器、IOS、安卓、百度小程序、微信小程序、钉钉小程序、快应用等多类端侧日志无法快速采集。 数据传输不可靠:移动端日志数据量多且频繁,传输速度慢,也极易出现丢失,对业务分析造成一定影响。 数据处理不方便:原始数据不方便处理,不方便快速与大数据平台实现对接。