检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
师帮您设计网络直通的方案。 典型的跳板机配置是2vCPUs | 4GB,每台跳板机可以支持约30MB/s的流量转发,您可以根据自身的日志流量配置合理数量的跳板机,多台跳板机配置ELB进行流量分发。 本文将详细介绍将阿里云主机日志采集到华为云云日志服务(LTS)的操作步骤,客户自建
南-贵阳一。 图1 方案架构 约束与限制 VPN网关的本端子网与对端子网不能相同,即VPC和用户数据中心待互通的子网不能相同。 VPN网关和对端网关的IKE策略、IPsec策略、预共享密钥需要相同。 VPN网关和对端网关上配置的本端接口地址和对端接口地址需要互为镜像。 VPC内弹
该接口用于主机上报租户日志给LTS。 接入点IP可在LTS控制台安装ICAgent的安装命令中获取,端口为8102,调用时使用该参数请参见请求示例。 每次上报的时候, 每条日志都必须带一个纳秒级的时间戳。在LTS界面查看日志的时候, 会按照时间戳排序展示在页面上。关于上报日志的约束与限制请参考日志读写限制。 URI
解析CSV格式日志 本文档介绍在解析Syslog或者其他文本格式时,针对数据中以特殊字符分隔的格式如何进行解析。 解析正常形式的CSV格式日志 原始日志: { "program":"access", "severity":6, "priority":14, "facility":1
志组页面创建新的日志组。 单击“所属日志流”后的目标框,在下拉列表中选择具体的日志流,若没有所需的日志流,单击“所属日志流”目标框后的“新建”,在弹出的创建日志流页面创建新的日志流。 单击“下一步”:APIG配置。 APIG配置,单击“前往APIG配置”。详细操作请参见日志分析。
注意事项 分词配置只会对配置时间点以后生成的日志生效,之前的日志按照之前配置的分词符进行处理。 在“分词配置”页签设置分词符后会对当前Region区域内的所有日志流生效,若需要单独配置单个日志流的分词符,请参考设置LTS日志索引配置。 配置分词 登录云日志服务控制台。 在左侧导航栏中
获取组织成员汇聚配置 功能介绍 只能由组织管理员或者委托管理员调用 获取组织成员汇聚配置 调用方法 请参见如何调用API。 URI GET /v1/{project_id}/lts/log-converge-config/{member_account_id} 表1 路径参数 参数
设置LTS日志采集配额和使用量预警 配置超额采集 当日志超过每月免费赠送的额度(500M)时,超过的部分将按需收费。如果每月免费赠送的额度已经可以满足您的使用需求,超过后希望暂停日志收集,可以在配置中心进行设置。 该开关默认为开启状态,开启后表示当日志超过免费赠送的额度(500M)时,继续采集日志,超过的部分按需收费。
日志搜索与分析是运维中不可或缺的一环。日志接入成功后,云日志服务(LTS)支持对采集成功的日志数据进行搜索与分析。通过合理的日志收集、高效的搜索方法和专业的分析工具,可以实现对系统或应用的全面监控和精细化管理。 执行搜索与分析前,需要将上报的日志进行结构化配置和索引配置,因为结构化后数据具有严格的长度和
Dict 否 匹配后目标字段名。当正则表达式参数没有配置命名捕获的名称时,必须配置该参数。 mode String 否 字段的覆盖模式。默认为fill-auto。关于更多字段值及含义请参见字段提取检查与覆盖模式。 pack_json String 否 将正则表达式的所有匹配结果打包
error_msg String 调用失败响应信息描述。 枚举值: Invalid projectId 请求示例 查询账号下的所有日志组 GET https://{endpoint}/v2/{project_id}/groups /v2/{project_id}/groups 响应示例
中间件-Flink日志 Flink是一个大数据处理引擎的处理框架,是针对流进行的处理。它是Apache旗下的一个框架和分布式的处理引擎,用于对无界和有界的数据进行状态的计算。Flink的核心特点包括高吞吐、低延迟(每秒处理数百万个事件,毫秒级延迟),以及结果的准确性(Flink提供了时间事件(ev
加工规则 通过原始日志中的account字段和OBS CSV文件中的account字段进行匹配,只有account字段的值完全相同,才能匹配成功。匹配成功后,返回OBS CSV文件中的nickname字段和字段值,与原始日志中的数据拼接,生成新的数据。 e_table_map
分析LTS日志 可视化提供对结构化后的日志字段进行SQL查询与分析的功能。对原始日志结构化后,等待1~2分钟左右,即可对结构化后的日志进行SQL查询与分析。 约束与限制 日志可视化相关的功能支持全部用户使用的局点有:华南-广州、华北-北京四、华北-乌兰察布二零一、华北-乌兰察布一
使用DSL加工函数对LTS日志数据脱敏 数据脱敏可以有效地减少敏感数据在加工、传输、使用等环节中的暴露,降低敏感数据泄露的风险,保护用户权益。本文介绍日志服务数据加工过程中常见的脱敏场景、对应的脱敏方法及示例。 背景信息 使用敏感数据包括手机号、银行卡号、邮箱、IP地址、AK、身份证号
LTS目前仅支持存储类别为“标准存储”的OBS桶。 不支持转储到存储类型为归档存储或配置了跨区域复制的OBS桶。 首次配置一次性转储到未授权的OBS桶中时,LTS服务会授权给OBS桶ACL规则,授权生效需要15分钟,如果您第一次配置一次性转储后失败,任务会在15分钟后重试。请谨慎修改桶策略,防止转储失败。
云数据库GeminiDB接入LTS 支持云数据库GeminiDB日志接入LTS。配置访问日志后,GeminiDB Redis实例新生成的日志记录会上传到云日志服务(Log Tank Service,简称LTS)进行管理。 具体接入方法请参见日志配置管理。 父主题: 使用云服务接入LTS
状态码 状态码 描述 200 请求响应成功, 成功删除接入配置。 400 BadRequest。非法请求。 建议根据error_msg直接修改该请求,不要重试该请求。 401 AuthFailed。鉴权失败, 请确认token后再次请求 。 403 Forbidden。请求被拒绝访问
单击“所属日志组”后的目标框,在下拉列表中选择具体的日志组,若没有所需的日志组,单击“所属日志组”目标框后的“新建”,在弹出的创建日志组页面创建新的日志组。 单击“所属日志流”后的目标框,在下拉列表中选择具体的日志流,若没有所需的日志流,单击“所属日志流”目标框后的“新建”,在弹出的创建日志流页面创建新的日志流。
kafka实例前,需要在安全组中,开放入方向规则198.19.128.0/17和9011端口。 如果DMS kafka实例的子网配置了ACL,则需要在该子网的网络ACL中,开放入方向规则198.19.128.0/17和9011端口。 调用方法 请参见如何调用API。 URI POST