检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
根据业务量购买带宽,并进行适配 。 在华为云华东-上海一购买ELB和云主机作为跳板机 登录云服务控制台,购买弹性云服务器 ECS。 非华为云上的服务器安装ICAgent,需要先在华为云上购买一台弹性云服务器作为跳板机。 购买弹性负载均衡 ELB,并添加TCP监听器和后端服务器组。 添加监
续的大数据分析工作。 前提条件 日志已接入云日志服务(LTS)。 日志流已配置结构化规则。 已在DLI中创建数据库和表,创建数据库表时数据位置选择OBS,数据格式选择JSON。详细操作请参见创建数据库和表。 已在DLI中创建队列,该队列将用来将数据导入DLI的表中。详细操作请参见创建队列。
且不能以小数点、下划线开头或以小数点结尾。 数据源配置:选择数据源类型,进行对应的数据源配置,详细请参考表2。对挂载的网盘或者共享存储,配置多台机器同时采集,会导致日志重复。 表2 数据源配置参数 类型 参数配置 容器标准输出 采集集群内指定容器日志,仅支持Stderr和Stdout的日志。
overwrite,overwrite-auto 返回结果 返回附带新字段的日志。 函数示例 示例1:根据测试数据中pro字段的值和目标数据字典,输出新字段protocol。 测试数据 { "data": 123, "pro": 1 } 加工规则 e_dict_map( {"1":
选择目标字段,将该字段在表格中隐藏。 表格配置 每页显示 每页显示的数据条数。 显示总数 显示表格数据的总条目数。 列配置 对齐方式 表格数据的对齐方式,支持左对齐,右对齐以及居中。 开启搜索 开启后,即可对表格列数据进行搜索功能。 开启排序 开启后,即可对表格列数据进行排序功能。 字体大小 表格字体的大小,取值范围为12px~24px
索和分析引擎。 Logstash是一个开源的、服务器端的数据处理管道,能够同时从多个来源实时接收、转换并将数据发送到用户选择的“存储库”。通常用于日志的收集、过滤和转发。 Kibana是一个开源的分析和可视化平台,用于数据的可视化、仪表盘创建和搜索查询。通常与Elasticsearch一起使用。
认证证书 合规证书 华为云服务及平台通过了多项国内外权威机构(ISO/SOC/PCI等)的安全合规认证,用户可自行申请下载合规资质证书。 图1 合规证书下载 资源中心 华为云还提供以下资源来帮助用户满足合规性要求,具体请查看资源中心。 图2 资源中心 销售许可证&软件著作权证书
LTS数字图 数字图通常用来表示单一数据点或关键性指标,能够更好地展示单一信息和数据的相对大小,是一种非常清晰的信息展示方式,适用于需要重点突出关键信息和数据的场合。通过数字图可以快速地呈现信息和数据,使得用户能够快速、直观地理解数据的趋势和关键指标。 查看数字图 登录云日志服务控制台。
30 默认30条上报条数阈值,当缓存到达阈值时上报缓存中的数据 30 <= cacheThreshold <= 1000。 timeInterval number 选填 3 默认3s 上报阈值时间,当达到阈值时间上报缓存中的数据 1 <= timeInterval <= 1800。 platform
日志结构化概述 日志数据可分为结构化数据和非结构化数据。结构化数据指能够用数字或统一的数据模型加以描述的数据,具有严格的长度和格式。非结构化数据指不便于用数据库二维逻辑表来表现的数据,数据结构不规则或不完整,没有预定义的数据模型。 日志结构化是以日志流为单位,通过不同的日志提取方
日志结构化概述 日志数据可分为结构化数据和非结构化数据。结构化数据指能够用数字或统一的数据模型加以描述的数据,具有严格的长度和格式。非结构化数据指不便于用数据库二维逻辑表来表现的数据,数据结构不规则或不完整,没有预定义的数据模型。 日志结构化是以日志流为单位,通过不同的日志提取方
字符串函数 概述 多字符串和排序、反转、替换 常见操作 查找判断、切分和格式化 字符集判断 父主题: 操作符函数
30 默认30条上报条数阈值,当缓存到达阈值时上报缓存中的数据 30 <= cacheThreshold <= 1000。 timeInterval number 选填 3 默认3s 上报阈值时间,当达到阈值时间上报缓存中的数据 1 <= timeInterval <= 1800。 platform
处理)后,才能搜索日志,在日志写入数据库时一次性收取流量费用。 标准存储量:日志标准存储量为压缩后的日志数据、索引数据、副本数据之和,这些空间约等于原始日志数据大小。标准存储量统计是指在选定时间范围内最新的存储总量。 原始日志流量:原始日志数据的大小。 基础转储流量:开启日志转储
使用如下资源函数时,必须配置高级预览才能拉取到目标数据。 函数 说明 res_local 从当前数据加工任务中拉取高级参数配置信息。 支持和其他函数组合使用。 res_obs_file 从OBS中获取特定Bucket下的文件内容,支持定期更新数据。 支持和其他函数组合使用。 res_local
当新值非空,且目标字段不存在时,设置目标字段。 overwrite 总是设置目标字段。 overwrite-auto 当新值非空,设置目标字段。 父主题: DSL数据加工语法(邀测)
日志转储 日志转储概述 日志转储至OBS 日志转储至DIS 日志转储至DMS 日志转储至DWS 日志转储至DLI
的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方的能力。 用户使用Flume系统采集日志,并且通过LTS侧提供的KAFKA协议方式上报日志。以下是部分常用数据采集场景示例: 使用Flume采集文本日志上报到LTS
的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方的能力。 用户使用Flume系统采集日志,并且通过LTS侧提供的KAFKA协议方式上报日志。以下是部分常用数据采集场景示例: 使用Flume采集文本日志上报到LTS
30 默认30条上报条数阈值,当缓存到达阈值时上报缓存中的数据 30 <= cacheThreshold <= 1000。 timeInterval number 选填 3 默认3s 上报阈值时间,当达到阈值时间上报缓存中的数据 1 <= timeInterval <= 1800。 platform