检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
主题名称。 topic_urn 是 String Topic的唯一的资源标识。 display_name 否 String Topic的显示名,推送邮件消息时,作为邮件发件人显示。 push_policy 否 Integer 消息推送的策略。 响应参数 状态码: 200 表8 响应Body参数
在主机里/opt/cloud/lts目录下的custom_tag文件中,查看该主机的标识,然后将该主机的标识,添加为主机组自定义标识,就可以将主机加入到该主机组下。例如:在主机里/opt/cloud/lts目录下的custom_tag文件中,查看该主机的标识为test1,创建主机组的自定义标
且body体中除start_time与end_time以外的参数失效,分页、排序、查询结果条数等功能请依照sql语法规则实现。查询结果的响应体不同于未启用时的查询方式,将以默认列存的形式返回查询结果。当前仅对内测用户开放。响应示例:{"analysisLogs":[{"field1":"1"
本文档主要为您介绍如何使用云日志服务数据加工功能对复杂的JSON数据进行加工。 多子键为数组的复杂JSON数据加工 程序构建的日志会以一种统计性质的JSON格式写入,通常包含一个基础信息以及多个子键为数组的数据形式。例如一个服务器每隔1分钟写入一条日志,包含当前信息状态,以及相关服务器和客户端节点的统计状态信息。 日志样例
CCE仪表盘模板 云容器引擎(Cloud Container Engine,简称CCE)提供高度可扩展的、高性能的企业级Kubernetes集群。 CCE仪表盘模板支持查看CCE日志节点操作、查看CCE日志K8s对象操作、查看CCE日志K8s事件查询、查看CCE日志K8s事件中心
查询结构化日志(新版) 功能介绍 该接口用于查询指定日志流下的结构化日志内容(新版)。 新版查询功能支持的局点信息请参考用户指南-日志可视化里的可视化章节。数据聚合结果不超过100亿条。仅支持分析最近30天内的数据,30天以上的数据不支持SQL分析。如您有更大的使用需求,请提工单申请。 调用方法 请参见如何调用API。
本文介绍云日志服务日志读写的限制。 表1 日志读写限制表 类别 限制项 说明 备注 华为账号 日志写入流量 您在1个华为账号下,写入流量最大为500MB/s。 如您有更大的使用需求,请提工单申请。 日志写入次数 您在1个华为账号下,写入次数最大为10000次/s。 如您有更大的使用需求,请提工单申请。
支持云日志服务界面全部功能 支持,iframe嵌入到企业内的运维系统,通过企业鉴权系统登录 少,需要前端iframe嵌入 企业鉴权系统 对接Grafana插件 支持Grafana的仪表盘、告警等功能 支持,日志流数据接入Grafana使用 无 Grafana自身的权限管理系统
云数据库GeminiDB接入LTS 支持云数据库GeminiDB日志接入LTS。配置访问日志后,GeminiDB Redis实例新生成的日志记录会上传到云日志服务(Log Tank Service,简称LTS)进行管理。 具体接入方法请参见日志配置管理。 父主题: 使用云服务接入LTS
创建AOM/LTS终端节点的方法: 登录华为云VPC终端节点 VPCEP控制台,进入终端节点页面。 单击“购买终端节点”。 在购买终端节点页面,选择终端节点所在的区域,“服务类别”选择“云服务”,在“选择服务”下方查找并选择AOM的云服务,并且勾选“创建内网域名”,选择终端节点所在的虚拟私有云和
支持分布式消息服务Kafka日志接入LTS。重平衡日志记录Rebalance的详情,包括Rebalance时间、原因和触发Rebalance的客户端等。重平衡日志存储在云日志服务(Log Tank Service,简称LTS)中,由LTS提供查询功能。 具体接入方法请参见查看Kafka重平衡日志。
逻辑or运算。 op_not 逻辑not运算。 op_nullif 判断两个表达式的取值。 op_ifnull 返回第一个值不为None的表达式的值。 op_coalesce 返回第一个值不为None的表达式的值。 e_has 判断字段是否存在。 函数格式 e_has("key") 参数说明
Flume是一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方的能力。 用户使用Flume系统采集日志,并且通过LTS侧提供的KAFKA协议方式上报日志。以下是部分常用数据采集场景示例:
Flume是一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方的能力。 用户使用Flume系统采集日志,并且通过LTS侧提供的KAFKA协议方式上报日志。以下是部分常用数据采集场景示例:
支持数据复制服务(DRS)日志接入LTS。配置访问日志后,DRS实例(包含实时迁移、备份迁移、实时同步、实时灾备和录制回放实例)新生成的所有日志记录会上传到云日志服务(Log Tank Service,简称LTS)进行管理。 具体接入方法请参见日志配置管理。 父主题: 使用云服务接入LTS
Message Service for Kafka)是一款基于开源社区版Kafka提供的消息队列服务,向用户提供计算、存储和带宽资源独占式的Kafka专享实例。重平衡日志记录Rebalance的详情,包括Rebalance时间、原因和触发Rebalance的客户端等。 云日志服
8ace-a36a290a83a0/search-criterias?search_type=ORIGINALLOG search_type: ORIGINALLOG 响应示例 状态码: 200 获取快速查询成功 { "search_criterias" : [ {
Once)。 不涉及。 表结构变更 如果投递过程中,在DWS表中添加非必须的新列,则不影响转储; 如果投递过程中,在DWS表中添加必须的新列,则会导致数据写入失败; 如果投递过程中,在DWS表中删除已配置转储规则的列,则会导致数据写入失败。 不涉及。 数据列不合法 常见场景类型为不匹
同时云日志服务还提供多种编程语言的SDK供您使用,SDK的使用方法请参见使用SDK接入LTS。 终端节点 终端节点即调用API的请求地址,不同服务在不同区域的终端节点不同,您可以从地区和终端节点中查询所有服务的终端节点。 基本概念 账号 用户注册时的账号,账号对其所拥有的资源及云服务具有完全的访问权限,