检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
日志转储至DIS DIS提供丰富的大数据分析能力,可以将大量日志文件传输到云端做备份,进行离线分析、存储查询及机器学习,还能用于数据丢失或异常后的恢复和故障分析。同时大量小文本文件可合并转储为大文件,提高数据处理性能。您可以根据业务场景选择是否使用DIS进行日志转储。 建议您优先使用转储至DMS。
日志结构化概述 日志数据可分为结构化数据和非结构化数据。结构化数据指能够用数字或统一的数据模型加以描述的数据,具有严格的长度和格式。非结构化数据指不便于用数据库二维逻辑表来表现的数据,数据结构不规则或不完整,没有预定义的数据模型。 日志结构化是以日志流为单位,通过不同的日志提取方
在弹出的删除消息模板页面,单击“确定”,删除所勾选的消息模板。 导出消息模板 在消息模板列表中,勾选待导出的消息模板,单击列表左上方“导出”。 选择“导出全部数据到XLSX”或“导出已选中数据到XLSX”,导出成功后即可到本地查看消息模板数据。 父主题: 配置日志告警行动规则
str_encode 对数据进行编码。 str_decode 对数据进行解码。 Base64类型 base64_encoding 对数据进行Base64编码。 base64_decoding 对数据进行Base64解码。 HTML类型 html_encoding 对数据进行HTML编码。
选择目标字段,将该字段在表格中隐藏。 表格配置 每页显示 每页显示的数据条数。 显示总数 显示表格数据的总条目数。 列配置 对齐方式 表格数据的对齐方式,支持左对齐,右对齐以及居中。 开启搜索 开启后,即可对表格列数据进行搜索功能。 开启排序 开启后,即可对表格列数据进行排序功能。 字体大小 表格字体的大小,取值范围为12px~24px
用户如果仅需要使用lpl语句来查询,可以在管道符“|”的右侧补上select * from table. 数据组织形式 管道符特性针对特定的数据组织形式,对于云日志服务而言,管道符特性的数据主要由两部分构成,一部分是结构化数据,一部分是原始日志。示例如下: {"id": 1, "name": "Bob",
ana\data\plugins。 下载的LTS-Grafana插件压缩包解压到当前位置,这样成功提取文件(文件名为lts-grafana-plugin)。 将提取到的文件(文件名为lts-grafana-plugin)拷贝到GrafanaLabs\grafana\plugins
实时日志告警:自定义告警内容,短信/邮件/企业微信/钉钉/HTTP多渠道通知。 一站式日志加工:200+函数、一站式日志规整、富化、脱敏、过滤、分裂加工平台。 日志数据服务间集成:日志转储OBS/DWS/DIS/DLI/DMS,助力用户快速构建水平解决方案。 图1 云日志服务示意图
使用如下资源函数时,必须配置高级预览才能拉取到目标数据。 函数 说明 res_local 从当前数据加工任务中拉取高级参数配置信息。 支持和其他函数组合使用。 res_obs_file 从OBS中获取特定Bucket下的文件内容,支持定期更新数据。 支持和其他函数组合使用。 res_local
策略规则用于定义本端子网到对端子网之间具体进入VPN连接加密隧道的数据流信息,由源网段与目的网段来定义。源网段必须包含部分本端子网;目的网段必须完全包含对端子网。 配置完成后,在“企业版-VPN连接”页面,VPN连接显示连接成功。也可通过数据中心ping对端虚拟机的私有ip进行验证。 图4
修改Grafana配置文件 打开配置文件: 使用YUM或RPM安装的Grafana:/etc/grafana/grafana.ini 使用.tar.gz文件安装的Grafana:{PATH_TO}/grafana-{VERSION}/conf/defaults.ini 在配置文件的[plug
在筛选条件中选择“产品类型:云日志服务”。详细操作请参考流水与明细账单。 单击“导出”,在导出页面自定义设置导出范围,将费用明细导出到本地查看,详细操作请参考账单导出。 费用明细导出的Excel文件中,筛选“资源标签”,过滤标签名称,即可更直观的查看到aa和bb部门的消费明细详情。
在筛选条件中选择“产品类型:云日志服务”。详细操作请参考流水与明细账单。 单击“导出”,在导出页面自定义设置导出范围,将费用明细导出到本地查看,详细操作请参考账单导出。 费用明细导出的Excel文件中,筛选“资源标签”,过滤标签名称,即可更直观的查看到aa和bb部门的消费明细详情。
云日志服务可以帮助您快捷地完成数据采集、消费、投递以及查询分析,提升运维和运营效率,建立海量日志处理能力。 LTS-Flink-Connector工具支持以下表1。 表1 功能说明 功能 说明 支持类型 源表和结果表 运行模式 仅支持流模式 API种类 SQL 是否支持更新或删除结果表数据 不支持更新和删除结果表数据,只支持插入数据。
当新值非空,且目标字段不存在时,设置目标字段。 overwrite 总是设置目标字段。 overwrite-auto 当新值非空,设置目标字段。 父主题: DSL数据加工语法(邀测)
FlinkLtsLogProducer用于将数据写到云日志服务中。producer只支持Flink at-least-once语义,在发生作业失败的情况下,写入云日志服务中的数据有可能会重复,但是绝对不会丢失。 用法示例如下,我们将模拟产生的字符串写入云日志服务: // 将数据序列化成日志服务的数据格式
已创建的集群名称。 test 数据库名称 集群的数据库名称。有两种数据库,分别是“gaussdb”和“postgres”。默认集群数据库为“gaussdb”。 gaussdb 用户名 数据库的管理员用户名。 lts-test 密码 数据库的管理员密码。 - schema名称 数据库对象的集合名称。
"end"时:返回当前时间点下一条将被写入的Cursor位置(当前该Cursor位置上无数据)。 当from_time > begin_time and from_time < end_time时:返回第一个服务端接收时间大于等于from_time的数据包对应的Cursor。 表1 配置参数说明 参数名称 描述
LTS数字图 数字图通常用来表示单一数据点或关键性指标,能够更好地展示单一信息和数据的相对大小,是一种非常清晰的信息展示方式,适用于需要重点突出关键信息和数据的场合。通过数字图可以快速地呈现信息和数据,使得用户能够快速、直观地理解数据的趋势和关键指标。 查看数字图 登录云日志服务控制台。
志流的数据。 一个日志流只能创建5个消费组。 一个消费组可以被多个消费者消费,每个消费者不会重复消费数据。 同一个租户(Project_Id)下,消费组名称唯一。 消费者 消费组的基本构成单元,承担消费任务,可以根据您的服务自行决定消费者数量。 Shard 云日志服务将数据必定保