检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
选填 2S Retries 如果某个 ProducerBatch 首次发送失败,能够对其重试的次数,建议为 3 次。如果 retries 小于等于 0,该 ProducerBatch 首次发送失败后将直接进入失败队列。 int 选填 10 BaseRetryBackoffMs 首次重试的退避时间。
表1 ICAgent文件采集限制 限制项 说明 备注 文件编码 仅支持UTF8,其他编码可能会产生乱码。 不支持采集其他类型日志文件,例如:二进制文件。 不涉及。 日志文件大小 无限制。 不涉及。 日志文件轮转 ICAgent目前支持配置固定日志文件名或者模糊匹配文件名,用户需要自己处理日志文件轮转。
ICAgent将无法保证一定会采集到该轮转文件末尾未被采集的少量日志。 例如:假设您轮转后的文件被压缩,文件名为:/your/log/path/**/*.log.xxx.zip,该文件的文件名和inode都发生变化,则ICAgent将无法保证一定会采集到该轮转文件末尾未被采集的少量日志。
String 是 OBS中保存的文件地址。如obs.cn-north-4.huawei.com bucket String 是 OBS中使用的桶名,如lts-dsl。 file String 是 目标OBS文件的路径。例如test/data.txt,不能以正斜线(/)开头。 返回结果
创建多个告警规则 支持批量创建多个告警规则。 在“告警规则”页面,批量导入告警规则。 单击“导入”,进入导入告警规则页面。 下载告警模板到本地填写完成。 单击“选择文件”,选择本地填写好的文件。 确认导入的规则信息无误后,单击“导入”。 导入成功后,在规则列表下方显示告警规则明细。 单击“批量编辑”,进入批量编辑告警规则页面。
Log): 记录MySQL服务器启动、运行或停止时出现的问题,以及服务器运行时的错误或警告信息。 对于诊断和解决问题非常有用。 在MySQL安装目录下的data文件夹中,文件名通常为hostname.err,其中hostname是MySQL服务器的主机名。 查询日志(General
ionName/2019/01/01/日志组/日志流/日志文件名称。 LTS-test/%GroupName/%StreamName/%Y/%m/%d/%H/%M 日志文件前缀 转储至OBS桶中的日志文件前缀。 日志文件前缀需符合如下规范: 名称长度限制为0~64个字符。 名称只
选填 2S retries 如果某个 ProducerBatch 首次发送失败,能够对其重试的次数,建议为 5 次。如果 retries 小于等于 0,该 ProducerBatch 首次发送失败后将直接进入失败队列。 int 选填 10 baseRetryBackoffMs 首次重试的退避时间。
注册DMS kafka实例 功能介绍 该接口用于注册DMS kafka实例。 在注册DMS kafka实例前,需要在安全组中,开放入方向规则198.19.128.0/17和9011端口。 如果DMS kafka实例的子网配置了ACL,则需要在该子网的网络ACL中,开放入方向规则198
集日志源文件中包含test的日志,可配置采集规则为.*test.* 单击操作列的可以进行规则校验,输入字段值,单击“校验”,提示校验成功。 上传原始日志。 打开上传原始日志开关后,原始日志将作为content字段的值上传到日志服务。 上传解析失败日志。 打开上传解析失败日志开关后
服务器,Linux服务器默认自带Syslog,目前华为云主机默认未配置接收远程Syslog写入,需要手动开启。 日志接入 将自建ELK日志导入云日志服务LTS 本实践主要介绍使用自定义Python脚本和LTS采集器ICAgent,协助用户将日志从Elasticsearch(简称ES)迁移到LTS中。
将日志转储至其他云服务中进行长期保存。 日志转储功能只能拷贝已有日志,不会删除日志。云日志服务LTS根据用户配置的日志存储时间定时清理日志文件,不会影响转储后的日志。 当前LTS支持以下表1,请根据您的业务场景进行日志转储服务选择。 表1 转储服务类型 转储服务类型 使用场景 对象存储服务
请求LTS失败图表所关联的查询分析语句如下所示: select diff[1] as "请求失败数" , case when diff[3] is not null then round(diff[3] - 1 , 2) else '昨日无数据' end as "请求失败数对比昨天"
true/false, 默认为 true prefix_name 否 String 转储至OBS桶中的日志文件前缀。 最小长度:0 最大长度:64 dir_prefix_name 否 String 自定义文件夹路径。 最小长度:0 最大长度:64 period 是 Integer 转储周期的长度 period_unit
默认情况下,Kafka的系统日志文件可能位于Kafka安装目录的logs子目录下,但具体位置可能会因配置而异。以下是一些常见的方法用于找到Kafka的系统日志文件位置: 查看Kafka安装目录。 首先,检查Kafka的安装目录。通常,系统日志文件会存储在安装目录下的一个名为log
指定。 独立部署的Flink集群:如果在独立模式下部署Flink集群,那么日志文件通常位于Flink安装目录下的log或logs文件夹中。如果Flink安装在/usr/local/flink,则日志文件可能位于/usr/local/flink/log 或 /usr/local/flink/logs。
器,以及IMAP/POP3/SMTP代理服务器。它具有其稳定性、丰富的功能集、简单的配置和低系统资源消耗等特点。Nginx常被用于处理静态文件、负载均衡、反向代理以及缓存等功能,适用于各种规模的网站和应用程序。 Nginx日志主要分为两种:访问日志(access_log)和错误日
各类Kafka Producer SDK或采集工具,仅依赖于Kafka协议。支持以下场景: 场景1:已有基于开源采集的自建系统,仅修改配置文件便可以将日志上报到 LTS,例如Logstash。 场景2:希望通过 Kafka producer SDK 来采集日志并上报,不必再安装采集ICAgent。
构建npm”,构建当前工程的npm库文件。 采用文件引入方式集成SDK。 运行安装SDK的命令,安装SDK软件包。 找到SDK文件夹中的app.js文件“node_modules > lts-mini-sdk > app.js”,将app.js文件从node_module复制到根路径并改名。
采集用户推广日志 为获取新用户,一般有两种方式: 网站注册时直接投放优惠券。 其他渠道扫描二维码,投放优惠券。 传单二维码 扫描网页二维码登录 实施方法: 定义如下注册服务器地址,生成二维码(传单、网页)供用户注册扫描。用户扫描该页面进行注册时,就可以得知用户是通过特定来源进入的,并记录日志。