[快速入门]CSS日志检索与分析场景
日志分析服务

日志分析服务 LOG 日志分析服务 LOG 日志分析服务(Log Analysis Service, 简称LOG)一站式海量实时日志分析服务,提供日志实时采集、智能分析可视化、转储等功能。提供端到端的快速、易用、丰富的日志分析平台 日志分析服务(Log Analysis Service

云审计服务 CTS

通知 优势 实时性 实时记录、实时检索,数据准确、即时分析 完整性 管理界面及API操作记录,覆盖全面 可靠性 审计日志的产生、传输、存储均采用加密保存 搭配使用 对象存储服务 OBS 消息通知服务 SMN 文档学习成长 新手入门 新手入门 入门指引 查看审计事件 查看已转储事件

向量数据库

极致性价比 通过图、索引等多种算法的组合,提供高性能、高精度、低成本全场景解决方案 易用可扩展 兼容开源ES语法大模型生态、开箱即用、免运维,支持水平扩展、动态扩容 安全合规 打造中立、可信、责任共担、安全的云服务 多种产品规格,满足您对成本、性能及技术创新的诉求 多种产品规格,满足您对成本、性能及技术创新的诉求

华为云数据湖探索服务 DLI

企业级大数据集群云服务 云搜索服务 CSS 提供多条件检索分析能力 云数据仓库 GaussDB(DWS) 极致性能、稳定、按需扩展的数据仓库

数据安全中心

等 自动梳理接口、自动发现敏感数据、数据访问控制、数据泄露的安全防护全程溯源等场景,需要动态数据脱敏、数字水印、可视展现敏感数据资产、日志审计风险识别、态势分析等 产品价格 ¥ 3000.00 /月 立即购买 ¥ 5000.00 /月 立即购买 ¥ 6300.00 /月 立即购买

图像识别

,实现对身份真实性的精准核验 图像搜索服务 ImageSearch 基于深度学习图像识别技术,利用特征向量化搜索能力,帮助客户从指定图库中搜索相同及相似的图片 人脸识别服务 FRS 在图像中快速检测人脸、获取人脸属性、实现人脸的精确比对和检索

人脸识别服务FRS

提供在线文字识别服务,将图片、扫描件或PDF、OFD文档中的文字识别成可编辑的文本。 图像搜索 ImageSearch 基于深度学习图像识别技术,利用特征向量化搜索能力,帮助客户从指定图库中搜索相同及相似的图片 人证核身服务 IVS 将用户本人身份证信息或用户手机号身份信息关联

智能数据湖_FusionInsight_数据湖应用场景_大数据-华为云

可信智能计算服务 TICS 首创联邦SQL分析多方安全计算技术融合 一站式 AI 开发平台 AI开发平台ModelArts 9大类100+服务,性能提升10+倍 推荐平台 推荐系统 RES 千万级TPS,毫秒级随机读写能力 多源接入 批量数据迁移 云数据迁移 CDM 20+种数据源,全向导式

云计算_云存储_云网络_云安全_云数据库_云管理与部署-华为云

安全、可信、持续创新的产品服务 安全、可信、持续创新的产品服务 免费试用 产品新特性 产品类别 精选推荐 中小企业优选 计算 容器 存储 网络 CDN智能边缘 数据库 人工智能 大数据 IoT物联网 应用中间件 开发运维 企业应用 视频 安全合规 管理监管 迁移 区块链 开天aPaaS

[相关产品]CSS日志检索与分析场景
日志采集检索分析平台 Elastic Stack

像)面向对象站长,开发者,运维,产品经理,企业 应用场景日志检索可视化分析试用要快速了解,请点击【立即购买】,其中云服务器的计费模式选择【按需计费】,试用完可释放服务器使用指南镜像安装到云服务器后,使用 SSH 登录到云服务器,运行命令 cd /data/apps/elastic

日志易日志搜索分析软件

,性能和压力测试跟踪安全信息事件管理(Security Information and Event Management)防火墙网络日志跟踪分析防病毒日志分析通过网络安全监控日志发现端口扫描和非法入侵日志易系统日志处理步骤:日志传输日志通过各服务器端的rsyslog、sysl

日志易日志搜索分析软件 (HCS版)

,性能和压力测试跟踪安全信息事件管理(Security Information and Event Management)防火墙网络日志跟踪分析防病毒日志分析通过网络安全监控日志发现端口扫描和非法入侵 日志易系统日志处理步骤:日志传输日志通过各服务器端的rsyslog、sys

JoveEye专利检索与分析系统V2.0

译、智能语义检索、全景数据分析等 AI 打造的第一款支持跨语言智能语义检索分析的科技大数据平台。JoveEye 是基于全球海量科技数据生成的科技领域知识图谱、科技领域企业级机器翻译、智能语义检索、全景数据分析等 AI 技术打造的全球第一款支持跨语言智能语义检索分析的科技大数据

日志易日志搜索分析软件配套服务(HCS)

性能和压力测试跟踪安全信息事件管理(Security Information and Event Management)防火墙网络日志跟踪分析防病毒日志分析通过网络安全监控日志发现端口扫描和非法入侵  日志易系统日志处理步骤:日志传输日志通过各服务器端的rsyslog、sys

四叶草安全日志收集与分析系统

、安全设备、主机及应用系统等日志进行全面的标准化处理,及时发现各种安全威胁、异常行为事件,为管理人员提供全局的视角,确保客户业务的不间断运营安全。四叶草安全日志收集分析系统通过基于国际标准化的关联分析引擎,为客户提供全维度、跨设备、细粒度的关联分析,透过事件的表象真实地还原事件

宸析日志分析系统

化统一描述、信息补全、关联分析,并提供统一的界面进行实时的可视化呈现,协助用户准确、快速地识别安全事故,从而及时做出响应。产品底层数据系统是基于大数据开发的一套海量安全数据分析平台,将大数据存储、分析技术安全分析策略结合,已解决数据快速增长、信息孤岛、全文检测等问题。  底层采用大数据技术

Inforcube日志审计及分析系统

系统基于Linux系统进行开发,采用独立的搜索库,对日志进行实时的保存展现。采用B/S架构,管理员可以通HTTP方式对日志进行查看、分析、管理。Inforcube日志审计及分析系统能够对收集到的各种日志进行范式化处理,将各种不同表达方式的日志转换成统一的描述形式。用户不必再去熟悉不同厂商不同的日志信息,从而大

黑盾综合日志审计分析系统

黑盾综合日志审计分析系统通过集中采集各类系统中的多源异构日志,进行综合分析,提供符合国家法律法规要求的日志留存、日志查询检索日志分析报告。黑盾综合日志审计分析系统是福建省海峡信息技术有限公司独立研制的、拥有自主知识产权的新一代日志处理和分析的系统。系统通过集中采集各类系统中的安

[相似文章]CSS日志检索与分析场景
日志监控与告警_日志告警规则_如何配置日志告警_日志分析_日志服务

产生的日志数据。即如果每5秒都有日志数据产生,则加载数据时延为5秒。 在AOM(应用运维管理)中关闭日志采集开关,会影响LTS(云日志服务)收集日志吗? 会。云日志服务应用运维服务日志采集开关为同步状态,即如果您在应用运维管理服务关闭了“超额继续采集日志”开关,则云日志服务的开关也同样关闭,关闭后将停止采集日志。

CSS是什么_云搜索服务_CSS功能

保险全业务上云解决方案 万腾科技制造运营管理MOM解决方案 云计算_云存储_云网络_云安全_云数据库_云管理部署-华为云 云日志服务日志服务 LTS 资源 人脸识别服务FRS 配置审计服务 制品仓库 CloudArtifact 查看更多 收起

什么是日志服务_日志平台_日志分析

度高的日志内容做结构化的分类。这样就可以采用SQL的语法进行日志的查询。 日志查询实时分析日志服务对采集的日志数据,可以通过关键字查询、模糊查询等方式简单快速地进行查询,适用于日志实时数据分析、安全诊断分析、运营客服系统等,例如云服务的访问量、点击量等,通过日志数据分析,可以输出详细的运营数据。

安全云脑_日志查询与分析-华为云

统计概述。 安全云脑实用文档 安全云脑的数据来源是什么? 安全云脑与其他安全服务之间的关系区别? 安全云脑支持跨帐号使用吗? 安全云脑如何变更版本规格? 安全云脑可以免费使用吗? 安全云脑主机安全服务的区别是什么? 为您推荐 快速了解安全云脑 快速了解安全云脑 安全云脑的功能特性

日志分析_日志结构化_日志格式化

如何进行日志分析 如何进行日志分析 什么是日志分析 什么是日志分析日志服务(Log Tank Service)提供日志分析的能力,对采集的日志数据,通过关键字查询、模糊查询等方式简单快速地进行日志分析查询,适用于日志实时数据分析、安全诊断分析、运营客服系统等,例如云服务的访问

云日志采集的方法_日志分析_云日志服务-华为云

日志服务 如何配置主机日志接入 云日志服务 02:23 如何创建并配置主机组 云日志服务 如何创建并配置主机组 云日志服务 03:08 日志搜索日志服务 日志搜索日志服务 03:36 云日志服务 如何配置主机日志接入 云日志服务 02:23 云日志服务 如何创建并配置主机组

日志告警情况分析_ 日志告警有哪些_云日志服务LTS-华为云

规则,监控日志中的关键词,通过在一定时间段内,统计日志中关键字出现的次数,实时监控服务运行状态。目前每个帐户最多可以创建关键词告警SQL告警共200个。 立即使用 帮助文档 云日志服务关键词告警 LTS支持对日志流中的日志数据进行关键词统计,通过设置告警规则,监控日志中的关键词

日志搜索_日志搜索工具_日志搜索平台

通过关键词、模糊查询快速日志搜索。 实时分析 可以通过关键字查询、模糊查询等方式简单快速地进行日志搜索,适用于日志实时数据分析、安全诊断分析、运营客服系统等 云日志服务与其他云服务的关系 云审计服务(Cloud Trace Service,简称CTS) 通过CTS服务,您可以记录日志服务相

大数据分析与应用入门

Developer HCIP-Big Data Developer 大数据场景微认证 03 包括初级和中级认证 包括初级和中级认证 大数据入门应用 华为云上大数据处理分析 大数据入门应用 华为云上大数据处理分析 HCIP-Big Data Developer HCIP-Big Data

CSS日志检索与分析场景

功能描述

DLI 将Flink作业的输出数据输出到 云搜索 服务 CS S的Elasticsearch中。Elasticsearch是基于Lucene的当前流行的企业级搜索服务器,具备分布式多用户的能力。其主要功能包括全文检索、结构化搜索、分析、聚合、高亮显示等。能为用户提供实时搜索、稳定可靠的服务。适用于 日志分析 、站内搜索等场景。

云搜索服务(Cloud Search Service,简称CSS)为DLI提供托管的分布式搜索引擎服务,完全兼容开源Elasticsearch搜索引擎,支持结构化、非结构化文本的多条件检索、统计、报表。

云搜索服务的更多信息,请参见《云搜索服务用户指南》

前提条件

  • 创建Flink OpenSource SQL作业时,在作业编辑界面的“运行参数”处,“Flink版本”需要选择“1.12”,勾选“保存作业日志”并设置保存作业日志的 OBS 桶,方便后续查看作业日志。
  • 请务必确保您的账户下已在云搜索服务里创建了集群。如何创建集群请参考《云搜索服务用户指南》中创建集群章节。
  • 该场景作业需要运行在DLI的独享队列上,因此要与云搜索服务建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。
  • Flink跨源开发场景中直接配置跨源认证信息存在密码泄露的风险,优先推荐您使用DLI提供的跨源认证。

    跨源认证简介及操作方法请参考跨源认证简介

注意事项

  • 当前只支持CSS集群7.X及以上版本,推荐使用7.6.2版本。
  • 若未开启安全模式,无需使用任何跨源认证,即无需配置pwd_auth_name、es_auth_name、user_name、password、certificate,且语法中hosts字段值以http开头。
  • 若开启安全模式,未开启https:
    • 方法1:推荐使用password类型跨源认证,并配置pwd_auth_name为跨源认证的名称,且语法中hosts字段值以http开头。
    • 方法2:不使用跨源认证,但需要配置用户名username、密码password,且语法中hosts字段值以http开头。
  • 若开启安全模式,开启https:
    • 方法1:推荐使用CSS类型跨源认证名称,并配置es_auth_name为跨源认证的名称。请注意该场景hosts字段值以https开头。
    • 方法2:不使用跨源认证,但需要配置用户名username、密码password、证书位置certificate。请注意该场景hosts字段值以https开头。
  • CSS集群安全组入向规则必须开启ICMP。
  • 数据类型的使用,请参考Format章节。
  • 提交Flink作业前,建议勾选“保存作业日志”参数,在OBS桶选项中选择日志保存的位置,方便后续作业提交失败或运行异常时,查看日志并分析问题原因。
  • Elasticsearch结果表根据是否定义了主键确定是在upsert模式还是在append模式下工作。
    • 如果定义了主键,Elasticsearch Sink将在upsert模式下工作,该模式可以消费包含UPDATE和DELETE的消息。
    • 如果未定义主键,Elasticsearch Sink将以append模式工作,该模式只能消费INSERT消息。

    在Elasticsearch结果表中,主键用于计算Elasticsearch的文档ID。文档ID为最多512个字节不包含空格的字符串。Elasticsearch结果表通过使用“document-id.key-delimiter”参数指定的键分隔符按照DDL中定义的顺序连接所有主键字段,从而为每一行生成一个文档ID字符串。某些类型(例如BYTES、ROW、ARRAY和MAP等)由于没有对应的字符串表示形式,所以不允许其作为主键字段。如果未指定主键,Elasticsearch将自动生成随机的文档ID。

  • Elasticsearch结果表同时支持静态索引和动态索引。
    • 如果使用静态索引,则索引选项值应为纯字符串,例如myusers,所有记录都将被写入myusers索引。
    • 如果使用动态索引,可以使用{field_name}引用记录中的字段值以动态生成目标索引。您还可以使用 {field_name|date_format_string}将TIMESTAMP、DATE和TIME类型的字段值转换为date_format_string指定的格式。date_format_string与Java的DateTimeFormatter兼容。例如,如果设置为myusers-{log_ts|yyyy-MM-dd},则log_ts字段值为2020-03-27 12:25:55的记录将被写入myusers-2020-03-27索引。

语法格式

create table esSink (
  attr_name attr_type 
  (',' attr_name attr_type)* 
  (','PRIMARY KEY (attr_name, ...) NOT ENFORCED)
)
with (
  'connector' = 'elasticsearch-7',
  'hosts' = '',
  'index' = ''
);

参数说明

表1 参数说明

参数

是否必选

默认值

类型

说明

connector

String

指定要使用的连接器,固定为:elasticsearch-7。表示连接到 Elasticsearch 7.x 及更高版本集群。

hosts

String

Elasticsearch所在集群的主机名,多个以';'间隔。

index

String

每条记录的 Elasticsearch 索引。可以是静态索引(例如'myIndex')或动态索引(例如'index-{log_ts|yyyy-MM-dd}')。

username

String

Elasticsearch所在集群的账号。该账号参数需和密码“password”参数同时配置。

password

String

Elasticsearch所在集群的密码。该密码参数需和“username”参数同时配置。

certificate

String

Elasticsearch集群的证书在obs中的位置。

例如:obs://bucket/path/CloudSearchService.cer

仅在开启安全模式,且开启https,且未使用其他跨源认证的场景下下需要配置该参数。

document-id.key-delimiter

_

String

连接复合主键的拼接符,默认为_。

failure-handler

fail

String

对Elasticsearch请求失败时的故障处理策略。有效的策略是:

  • fail: 如果请求失败并因此导致作业失败,则抛出异常。
  • ignore: 忽略失败并丢弃请求。
  • retry-rejected:重新添加由于队列容量饱和而失败的请求。
  • 自定义类名:用于使用ActionRequestFailureHandler子类进行故障处理。

sink.flush-on-checkpoint

true

Boolean

是否在检查点刷新。

如果配置为false,在Elasticsearch进行Checkpoint时,connector将不等待确认所有pending请求已完成。因此,connector不会为请求提供at-least-once保证。

sink.bulk-flush.max-actions

1000

Interger

每个批量请求的最大缓冲操作数。可以设置'0'为禁用它。

sink.bulk-flush.max-size

2mb

MemorySize

每个批量请求的缓冲操作的内存中的最大大小。必须是MB粒度。可以设置'0'为禁用它。

sink.bulk-flush.interval

1s

Duration

刷新缓冲操作的间隔。可以设置'0'为禁用它。

请注意:

'sink.bulk-flush.max-size'和'sink.bulk-flush.max-actions' 都可以设置为'0'刷新间隔,从而允许对缓冲操作进行完整的异步处理。

sink.bulk-flush.backoff.strategy

DISABLED

String

指定在任何刷新操作由于临时请求错误而失败时如何执行重试。有效的策略是:

  • DISABLED:未执行重试,即在第一个请求错误后失败。
  • CONSTANT:等待重试之间的退避延迟。
  • EXPONENTIAL:最初等待退避延迟并在重试之间呈指数增加。

sink.bulk-flush.backoff.max-retries

8

Integer

最大退避重试次数。

sink.bulk-flush.backoff.delay

50ms

Duration

每次退避尝试之间的延迟。

对于CONSTANT退避,这只是每次重试之间的延迟。

对于EXPONENTIAL退避,这是初始基本延迟。

connection.max-retry-timeout

Duration

重试之间的最大超时时间。

connection.path-prefix

String

要添加到每个 RES T通信的前缀字符串,例如, '/v1'。

format

json

String

Elasticsearch连接器支持指定格式。该格式必须生成有效的 json 文档。默认情况下使用内置'json'格式。

请参考Format页面以获取更多详细信息和格式参数。

pwd_auth_name

String

Password类型的跨源认证名称。

  • 仅在使用CSS类型的跨源认证时配置该参数。
  • es_auth_name和pwd_auth_name只能配置一个。

es_auth_name

String

CSS类型的跨源认证的名称。

  • 仅在使用CSS类型的跨源认证时配置该参数。
  • es_auth_name和pwd_auth_name只能配置一个。

示例

该示例是从Kafka数据源中读取数据,并写入到Elasticsearch结果表中,其具体步骤如下:

  1. 参考增强型跨源连接,在DLI上根据Elasticsearch和Kafka所在的虚拟 私有云 和子网分别创建相应的增强型跨源连接,并绑定所要使用的Flink弹性资源池。
  2. 设置Elasticsearch和Kafka的安全组,添加入向规则使其对Flink的队列网段放通。参考测试地址连通性分别根据Elasticsearch和Kafka的地址测试队列连通性。若能连通,则表示跨源已经绑定成功,否则表示未成功。
  3. 登录Elasticsearch集群的Kibana,并选择Dev Tools,输入下列语句并执行,以创建值为orders的index:
    PUT /orders
    {
      "settings": {
        "number_of_shards": 1
      },
    	"mappings": {
    	  "properties": {
    	    "order_id": {
    	      "type": "text"
    	    },
    	    "order_channel": {
    	      "type": "text"
    	    },
    	    "order_time": {
    	      "type": "text"
    	    },
    	    "pay_amount": {
    	      "type": "double"
    	    },
    	    "real_pay": {
    	      "type": "double"
    	    },
    	    "pay_time": {
    	      "type": "text"
    	    },
    	    "user_id": {
    	      "type": "text"
    	    },
    	    "user_name": {
    	      "type": "text"
    	    },
    	    "area_id": {
    	      "type": "text"
    	    }
    	  }
    	}
    }
  4. 参考创建Flink OpenSource作业,创建flink opensource sql作业,输入以下作业运行脚本,提交运行作业。
    注意:创建作业时,在作业编辑界面的“运行参数”处,“Flink版本”选择“1.12”,勾选“保存作业日志”并设置保存作业日志的OBS桶,方便后续查看作业日志。如下脚本中的加粗参数请根据实际环境修改
    CREATE TABLE kafkaSource (
      order_id string,
      order_channel string,
      order_time string, 
      pay_amount double,
      real_pay double,
      pay_time string,
      user_id string,
      user_name string,
      area_id string
    ) WITH (
      'connector' = 'kafka',
      'topic' = 'KafkaTopic',
      'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort',
      'properties.group.id' = 'GroupId',
      'scan.startup.mode' = 'latest-offset',
      "format" = "json"
    );
    
    CREATE TABLE elasticsearchSink (
      order_id string,
      order_channel string,
      order_time string, 
      pay_amount double,
      real_pay double,
      pay_time string,
      user_id string,
      user_name string,
      area_id string
    ) WITH (
      'connector' = 'elasticsearch-7',
      'hosts' = 'ElasticsearchAddress:ElasticsearchPort',
      'index' = 'orders'
    );
    
    insert into elasticsearchSink select * from kafkaSource;
  5. 连接Kafka集群,向kafka中插入如下测试数据:
    {"order_id":"202103241000000001", "order_channel":"webShop", "order_time":"2021-03-24 10:00:00", "pay_amount":"100.00", "real_pay":"100.00", "pay_time":"2021-03-24 10:02:03", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}
    
    {"order_id":"202103241606060001", "order_channel":"appShop", "order_time":"2021-03-24 16:06:06", "pay_amount":"200.00", "real_pay":"180.00", "pay_time":"2021-03-24 16:10:06", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}
  6. 在Elasticsearch集群的Kibana中输入下述语句并查看相应结果:
    GET orders/_search
    {
      "took" : 1,
      "timed_out" : false,
      "_shards" : {
        "total" : 1,
        "successful" : 1,
        "skipped" : 0,
        "failed" : 0
      },
      "hits" : {
        "total" : {
          "value" : 2,
          "relation" : "eq"
        },
        "max_score" : 1.0,
        "hits" : [
          {
            "_index" : "orders",
            "_type" : "_doc",
            "_id" : "ae7wpH4B1dV9conjpXeB",
            "_score" : 1.0,
            "_source" : {
              "order_id" : "202103241000000001",
              "order_channel" : "webShop",
              "order_time" : "2021-03-24 10:00:00",
              "pay_amount" : 100.0,
              "real_pay" : 100.0,
              "pay_time" : "2021-03-24 10:02:03",
              "user_id" : "0001",
              "user_name" : "Alice",
              "area_id" : "330106"
            }
          },
          {
            "_index" : "orders",
            "_type" : "_doc",
            "_id" : "au7xpH4B1dV9conjn3er",
            "_score" : 1.0,
            "_source" : {
              "order_id" : "202103241606060001",
              "order_channel" : "appShop",
              "order_time" : "2021-03-24 16:06:06",
              "pay_amount" : 200.0,
              "real_pay" : 180.0,
              "pay_time" : "2021-03-24 16:10:06",
              "user_id" : "0001",
              "user_name" : "Alice",
              "area_id" : "330106"
            }
          }
        ]
      }
    }

CSS日志检索与分析场景常见问题

更多常见问题 >>