CSS日志检索与分析场景
云搜索服务(Cloud Search Service)是一个基于Elasticsearch且完全托管的在线分布式搜索服务,为用户提供结构化、非结构化文本的多条件检索、统计、报表。完全兼容开源Elasticsearch原生接口,无需编程即可对接多种数据源。
日志分析服务 LOG 日志分析服务 LOG 日志分析服务(Log Analysis Service, 简称LOG)一站式海量实时日志分析服务,提供日志实时采集、智能分析与可视化、转储等功能。提供端到端的快速、易用、丰富的日志分析平台 日志分析服务(Log Analysis Service
通知 优势 实时性 实时记录、实时检索,数据准确、即时分析 完整性 管理界面及API操作记录,覆盖全面 可靠性 审计日志的产生、传输、存储均采用加密保存 搭配使用 对象存储服务 OBS 消息通知服务 SMN 文档与学习成长 新手入门 新手入门 入门指引 查看审计事件 查看已转储事件
极致性价比 通过图、索引等多种算法的组合,提供高性能、高精度、低成本全场景解决方案 易用可扩展 兼容开源ES语法与大模型生态、开箱即用、免运维,支持水平扩展、动态扩容 安全合规 打造中立、可信、责任共担、安全的云服务 多种产品规格,满足您对成本、性能及技术创新的诉求 多种产品规格,满足您对成本、性能及技术创新的诉求
企业级大数据集群云服务 云搜索服务 CSS 提供多条件检索与分析能力 云数据仓库 GaussDB(DWS) 极致性能、稳定、按需扩展的数据仓库
等 自动梳理接口、自动发现敏感数据、数据访问控制、数据泄露的安全防护与全程溯源等场景,需要动态数据脱敏、数字水印、可视展现敏感数据资产、日志审计与风险识别、态势分析等 产品价格 ¥ 3000.00 /月 立即购买 ¥ 5000.00 /月 立即购买 ¥ 6300.00 /月 立即购买
,实现对身份真实性的精准核验 图像搜索服务 ImageSearch 基于深度学习与图像识别技术,利用特征向量化与搜索能力,帮助客户从指定图库中搜索相同及相似的图片 人脸识别服务 FRS 在图像中快速检测人脸、获取人脸属性、实现人脸的精确比对和检索
提供在线文字识别服务,将图片、扫描件或PDF、OFD文档中的文字识别成可编辑的文本。 图像搜索 ImageSearch 基于深度学习与图像识别技术,利用特征向量化与搜索能力,帮助客户从指定图库中搜索相同及相似的图片 人证核身服务 IVS 将用户本人与身份证信息或用户手机号与身份信息关联
可信智能计算服务 TICS 首创联邦SQL分析与多方安全计算技术融合 一站式 AI 开发平台 AI开发平台ModelArts 9大类100+服务,性能提升10+倍 推荐平台 推荐系统 RES 千万级TPS,毫秒级随机读写能力 多源接入 批量数据迁移 云数据迁移 CDM 20+种数据源,全向导式
安全、可信、持续创新的产品与服务 安全、可信、持续创新的产品与服务 免费试用 产品新特性 产品类别 精选推荐 中小企业优选 计算 容器 存储 网络 CDN与智能边缘 数据库 人工智能 大数据 IoT物联网 应用中间件 开发与运维 企业应用 视频 安全与合规 管理与监管 迁移 区块链 开天aPaaS
像)面向对象站长,开发者,运维,产品经理,企业 应用场景日志检索与可视化分析试用要快速了解,请点击【立即购买】,其中云服务器的计费模式选择【按需计费】,试用完可释放服务器使用指南镜像安装到云服务器后,使用 SSH 登录到云服务器,运行命令 cd /data/apps/elastic
,性能和压力测试跟踪安全信息与事件管理(Security Information and Event Management)防火墙与网络日志跟踪分析防病毒日志分析通过网络安全监控日志发现端口扫描和非法入侵日志易系统日志处理步骤:日志传输日志通过各服务器端的rsyslog、sysl
,性能和压力测试跟踪安全信息与事件管理(Security Information and Event Management)防火墙与网络日志跟踪分析防病毒日志分析通过网络安全监控日志发现端口扫描和非法入侵 日志易系统日志处理步骤:日志传输日志通过各服务器端的rsyslog、sys
译、智能语义检索、全景数据分析等 AI 打造的第一款支持跨语言智能语义检索与分析的科技大数据平台。JoveEye 是基于全球海量科技数据生成的科技领域知识图谱、科技领域企业级机器翻译、智能语义检索、全景数据分析等 AI 技术打造的全球第一款支持跨语言智能语义检索与分析的科技大数据
性能和压力测试跟踪安全信息与事件管理(Security Information and Event Management)防火墙与网络日志跟踪分析防病毒日志分析通过网络安全监控日志发现端口扫描和非法入侵 日志易系统日志处理步骤:日志传输日志通过各服务器端的rsyslog、sys
、安全设备、主机及应用系统等日志进行全面的标准化处理,及时发现各种安全威胁、异常行为事件,为管理人员提供全局的视角,确保客户业务的不间断运营安全。四叶草安全日志收集与分析系统通过基于国际标准化的关联分析引擎,为客户提供全维度、跨设备、细粒度的关联分析,透过事件的表象真实地还原事件
化统一描述、信息补全、关联分析,并提供统一的界面进行实时的可视化呈现,协助用户准确、快速地识别安全事故,从而及时做出响应。产品底层数据系统是基于大数据开发的一套海量安全数据分析平台,将大数据存储、分析技术与安全分析策略结合,已解决数据快速增长、信息孤岛、全文检测等问题。 底层采用大数据技术
系统基于Linux系统进行开发,采用独立的搜索库,对日志进行实时的保存与展现。采用B/S架构,管理员可以通HTTP方式对日志进行查看、分析、管理。Inforcube日志审计及分析系统能够对收集到的各种日志进行范式化处理,将各种不同表达方式的日志转换成统一的描述形式。用户不必再去熟悉不同厂商不同的日志信息,从而大
黑盾综合日志审计分析系统通过集中采集各类系统中的多源异构日志,进行综合分析,提供符合国家法律法规要求的日志留存、日志查询检索及日志分析报告。黑盾综合日志审计分析系统是福建省海峡信息技术有限公司独立研制的、拥有自主知识产权的新一代日志处理和分析的系统。系统通过集中采集各类系统中的安
产生的日志数据。即如果每5秒都有日志数据产生,则加载数据时延为5秒。 在AOM(应用运维管理)中关闭日志采集开关,会影响LTS(云日志服务)收集日志吗? 会。云日志服务与应用运维服务的日志采集开关为同步状态,即如果您在应用运维管理服务关闭了“超额继续采集日志”开关,则云日志服务的开关也同样关闭,关闭后将停止采集日志。
保险全业务上云解决方案 万腾科技制造运营管理MOM解决方案 云计算_云存储_云网络_云安全_云数据库_云管理与部署-华为云 云日志服务 云日志服务 LTS 资源 人脸识别服务FRS 配置审计服务 制品仓库 CloudArtifact 查看更多 收起
度高的日志内容做结构化的分类。这样就可以采用SQL的语法进行日志的查询。 日志查询与实时分析 云日志服务对采集的日志数据,可以通过关键字查询、模糊查询等方式简单快速地进行查询,适用于日志实时数据分析、安全诊断与分析、运营与客服系统等,例如云服务的访问量、点击量等,通过日志数据分析,可以输出详细的运营数据。
统计概述。 安全云脑实用文档 安全云脑的数据来源是什么? 安全云脑与其他安全服务之间的关系与区别? 安全云脑支持跨帐号使用吗? 安全云脑如何变更版本规格? 安全云脑可以免费使用吗? 安全云脑与主机安全服务的区别是什么? 为您推荐 快速了解安全云脑 快速了解安全云脑 安全云脑的功能特性
如何进行日志分析 如何进行日志分析 什么是日志分析 什么是日志分析 云日志服务(Log Tank Service)提供日志分析的能力,对采集的日志数据,通过关键字查询、模糊查询等方式简单快速地进行日志分析查询,适用于日志实时数据分析、安全诊断与分析、运营与客服系统等,例如云服务的访问
云日志服务 如何配置主机日志接入 云日志服务 02:23 如何创建并配置主机组 云日志服务 如何创建并配置主机组 云日志服务 03:08 日志搜索 云日志服务 日志搜索 云日志服务 03:36 云日志服务 如何配置主机日志接入 云日志服务 02:23 云日志服务 如何创建并配置主机组
规则,监控日志中的关键词,通过在一定时间段内,统计日志中关键字出现的次数,实时监控服务运行状态。目前每个帐户最多可以创建关键词告警与SQL告警共200个。 立即使用 帮助文档 云日志服务关键词告警 LTS支持对日志流中的日志数据进行关键词统计,通过设置告警规则,监控日志中的关键词
通过关键词、模糊查询快速日志搜索。 实时分析 可以通过关键字查询、模糊查询等方式简单快速地进行日志搜索,适用于日志实时数据分析、安全诊断与分析、运营与客服系统等 云日志服务与其他云服务的关系 云审计服务(Cloud Trace Service,简称CTS) 通过CTS服务,您可以记录与云日志服务相
Developer HCIP-Big Data Developer 大数据场景微认证 03 包括初级和中级认证 包括初级和中级认证 大数据入门与应用 华为云上大数据处理与分析 大数据入门与应用 华为云上大数据处理与分析 HCIP-Big Data Developer HCIP-Big Data
CSS日志检索与分析场景
功能描述
DLI 将Flink作业的输出数据输出到 云搜索 服务 CS S的Elasticsearch中。Elasticsearch是基于Lucene的当前流行的企业级搜索服务器,具备分布式多用户的能力。其主要功能包括全文检索、结构化搜索、分析、聚合、高亮显示等。能为用户提供实时搜索、稳定可靠的服务。适用于 日志分析 、站内搜索等场景。
云搜索服务(Cloud Search Service,简称CSS)为DLI提供托管的分布式搜索引擎服务,完全兼容开源Elasticsearch搜索引擎,支持结构化、非结构化文本的多条件检索、统计、报表。
云搜索服务的更多信息,请参见《云搜索服务用户指南》
前提条件
注意事项
- 当前只支持CSS集群7.X及以上版本,推荐使用7.6.2版本。
- 若未开启安全模式,无需使用任何跨源认证,即无需配置pwd_auth_name、es_auth_name、user_name、password、certificate,且语法中hosts字段值以http开头。
- 若开启安全模式,未开启https:
- 方法1:推荐使用password类型跨源认证,并配置pwd_auth_name为跨源认证的名称,且语法中hosts字段值以http开头。
- 方法2:不使用跨源认证,但需要配置用户名username、密码password,且语法中hosts字段值以http开头。
- 若开启安全模式,开启https:
- 方法1:推荐使用CSS类型跨源认证名称,并配置es_auth_name为跨源认证的名称。请注意该场景hosts字段值以https开头。
- 方法2:不使用跨源认证,但需要配置用户名username、密码password、证书位置certificate。请注意该场景hosts字段值以https开头。
- CSS集群安全组入向规则必须开启ICMP。
- 数据类型的使用,请参考Format章节。
- 提交Flink作业前,建议勾选“保存作业日志”参数,在OBS桶选项中选择日志保存的位置,方便后续作业提交失败或运行异常时,查看日志并分析问题原因。
- Elasticsearch结果表根据是否定义了主键确定是在upsert模式还是在append模式下工作。
- 如果定义了主键,Elasticsearch Sink将在upsert模式下工作,该模式可以消费包含UPDATE和DELETE的消息。
- 如果未定义主键,Elasticsearch Sink将以append模式工作,该模式只能消费INSERT消息。
在Elasticsearch结果表中,主键用于计算Elasticsearch的文档ID。文档ID为最多512个字节不包含空格的字符串。Elasticsearch结果表通过使用“document-id.key-delimiter”参数指定的键分隔符按照DDL中定义的顺序连接所有主键字段,从而为每一行生成一个文档ID字符串。某些类型(例如BYTES、ROW、ARRAY和MAP等)由于没有对应的字符串表示形式,所以不允许其作为主键字段。如果未指定主键,Elasticsearch将自动生成随机的文档ID。
- Elasticsearch结果表同时支持静态索引和动态索引。
- 如果使用静态索引,则索引选项值应为纯字符串,例如myusers,所有记录都将被写入myusers索引。
- 如果使用动态索引,可以使用{field_name}引用记录中的字段值以动态生成目标索引。您还可以使用 {field_name|date_format_string}将TIMESTAMP、DATE和TIME类型的字段值转换为date_format_string指定的格式。date_format_string与Java的DateTimeFormatter兼容。例如,如果设置为myusers-{log_ts|yyyy-MM-dd},则log_ts字段值为2020-03-27 12:25:55的记录将被写入myusers-2020-03-27索引。
语法格式
create table esSink ( attr_name attr_type (',' attr_name attr_type)* (','PRIMARY KEY (attr_name, ...) NOT ENFORCED) ) with ( 'connector' = 'elasticsearch-7', 'hosts' = '', 'index' = '' );
参数说明
参数 |
是否必选 |
默认值 |
类型 |
说明 |
---|---|---|---|---|
connector |
是 |
无 |
String |
指定要使用的连接器,固定为:elasticsearch-7。表示连接到 Elasticsearch 7.x 及更高版本集群。 |
hosts |
是 |
无 |
String |
Elasticsearch所在集群的主机名,多个以';'间隔。 |
index |
是 |
无 |
String |
每条记录的 Elasticsearch 索引。可以是静态索引(例如'myIndex')或动态索引(例如'index-{log_ts|yyyy-MM-dd}')。 |
username |
否 |
无 |
String |
Elasticsearch所在集群的账号。该账号参数需和密码“password”参数同时配置。 |
password |
否 |
无 |
String |
Elasticsearch所在集群的密码。该密码参数需和“username”参数同时配置。 |
certificate |
否 |
无 |
String |
Elasticsearch集群的证书在obs中的位置。 例如:obs://bucket/path/CloudSearchService.cer 仅在开启安全模式,且开启https,且未使用其他跨源认证的场景下下需要配置该参数。 |
document-id.key-delimiter |
否 |
_ |
String |
连接复合主键的拼接符,默认为_。 |
failure-handler |
否 |
fail |
String |
对Elasticsearch请求失败时的故障处理策略。有效的策略是:
|
sink.flush-on-checkpoint |
否 |
true |
Boolean |
是否在检查点刷新。 如果配置为false,在Elasticsearch进行Checkpoint时,connector将不等待确认所有pending请求已完成。因此,connector不会为请求提供at-least-once保证。 |
sink.bulk-flush.max-actions |
否 |
1000 |
Interger |
每个批量请求的最大缓冲操作数。可以设置'0'为禁用它。 |
sink.bulk-flush.max-size |
否 |
2mb |
MemorySize |
每个批量请求的缓冲操作的内存中的最大大小。必须是MB粒度。可以设置'0'为禁用它。 |
sink.bulk-flush.interval |
否 |
1s |
Duration |
刷新缓冲操作的间隔。可以设置'0'为禁用它。 请注意: 'sink.bulk-flush.max-size'和'sink.bulk-flush.max-actions' 都可以设置为'0'刷新间隔,从而允许对缓冲操作进行完整的异步处理。 |
sink.bulk-flush.backoff.strategy |
否 |
DISABLED |
String |
指定在任何刷新操作由于临时请求错误而失败时如何执行重试。有效的策略是:
|
sink.bulk-flush.backoff.max-retries |
否 |
8 |
Integer |
最大退避重试次数。 |
sink.bulk-flush.backoff.delay |
否 |
50ms |
Duration |
每次退避尝试之间的延迟。 对于CONSTANT退避,这只是每次重试之间的延迟。 对于EXPONENTIAL退避,这是初始基本延迟。 |
connection.max-retry-timeout |
否 |
无 |
Duration |
重试之间的最大超时时间。 |
connection.path-prefix |
否 |
无 |
String |
要添加到每个 RES T通信的前缀字符串,例如, '/v1'。 |
format |
否 |
json |
String |
Elasticsearch连接器支持指定格式。该格式必须生成有效的 json 文档。默认情况下使用内置'json'格式。 请参考Format页面以获取更多详细信息和格式参数。 |
pwd_auth_name |
否 |
无 |
String |
Password类型的跨源认证名称。
|
es_auth_name |
否 |
无 |
String |
CSS类型的跨源认证的名称。
|
示例
该示例是从Kafka数据源中读取数据,并写入到Elasticsearch结果表中,其具体步骤如下:
- 参考增强型跨源连接,在DLI上根据Elasticsearch和Kafka所在的虚拟 私有云 和子网分别创建相应的增强型跨源连接,并绑定所要使用的Flink弹性资源池。
- 设置Elasticsearch和Kafka的安全组,添加入向规则使其对Flink的队列网段放通。参考测试地址连通性分别根据Elasticsearch和Kafka的地址测试队列连通性。若能连通,则表示跨源已经绑定成功,否则表示未成功。
- 登录Elasticsearch集群的Kibana,并选择Dev Tools,输入下列语句并执行,以创建值为orders的index:
PUT /orders { "settings": { "number_of_shards": 1 }, "mappings": { "properties": { "order_id": { "type": "text" }, "order_channel": { "type": "text" }, "order_time": { "type": "text" }, "pay_amount": { "type": "double" }, "real_pay": { "type": "double" }, "pay_time": { "type": "text" }, "user_id": { "type": "text" }, "user_name": { "type": "text" }, "area_id": { "type": "text" } } } }
- 参考创建Flink OpenSource作业,创建flink opensource sql作业,输入以下作业运行脚本,提交运行作业。
注意:创建作业时,在作业编辑界面的“运行参数”处,“Flink版本”选择“1.12”,勾选“保存作业日志”并设置保存作业日志的OBS桶,方便后续查看作业日志。如下脚本中的加粗参数请根据实际环境修改。
CREATE TABLE kafkaSource ( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string ) WITH ( 'connector' = 'kafka', 'topic' = 'KafkaTopic', 'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort', 'properties.group.id' = 'GroupId', 'scan.startup.mode' = 'latest-offset', "format" = "json" ); CREATE TABLE elasticsearchSink ( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string ) WITH ( 'connector' = 'elasticsearch-7', 'hosts' = 'ElasticsearchAddress:ElasticsearchPort', 'index' = 'orders' ); insert into elasticsearchSink select * from kafkaSource;
- 连接Kafka集群,向kafka中插入如下测试数据:
{"order_id":"202103241000000001", "order_channel":"webShop", "order_time":"2021-03-24 10:00:00", "pay_amount":"100.00", "real_pay":"100.00", "pay_time":"2021-03-24 10:02:03", "user_id":"0001", "user_name":"Alice", "area_id":"330106"} {"order_id":"202103241606060001", "order_channel":"appShop", "order_time":"2021-03-24 16:06:06", "pay_amount":"200.00", "real_pay":"180.00", "pay_time":"2021-03-24 16:10:06", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}
- 在Elasticsearch集群的Kibana中输入下述语句并查看相应结果:
GET orders/_search
{ "took" : 1, "timed_out" : false, "_shards" : { "total" : 1, "successful" : 1, "skipped" : 0, "failed" : 0 }, "hits" : { "total" : { "value" : 2, "relation" : "eq" }, "max_score" : 1.0, "hits" : [ { "_index" : "orders", "_type" : "_doc", "_id" : "ae7wpH4B1dV9conjpXeB", "_score" : 1.0, "_source" : { "order_id" : "202103241000000001", "order_channel" : "webShop", "order_time" : "2021-03-24 10:00:00", "pay_amount" : 100.0, "real_pay" : 100.0, "pay_time" : "2021-03-24 10:02:03", "user_id" : "0001", "user_name" : "Alice", "area_id" : "330106" } }, { "_index" : "orders", "_type" : "_doc", "_id" : "au7xpH4B1dV9conjn3er", "_score" : 1.0, "_source" : { "order_id" : "202103241606060001", "order_channel" : "appShop", "order_time" : "2021-03-24 16:06:06", "pay_amount" : 200.0, "real_pay" : 180.0, "pay_time" : "2021-03-24 16:10:06", "user_id" : "0001", "user_name" : "Alice", "area_id" : "330106" } } ] } }
CSS日志检索与分析场景常见问题
更多常见问题 >>-
云日志服务常见问题-日志搜索与查看类的问题解决。
-
云日志服务(Log Tank Service)支持通过关键词和SQL统计配置日志告警,日志告警渠道支持邮件、短信、微信、钉钉、HTTP、语音
-
CSS是什么_云搜索服务_CSS功能
-
云日志服务常见问题-日志转储类的问题解决。
-
云日志服务(Log Tank Service,简称LTS),用于收集来自主机和云服务的日志数据,通过海量日志数据的分析与处理,可以将云服务和应用程序的可用性和性能最大化,为您提供实时、高效、安全的日志处理能力,帮助您快速高效地进行实时决策分析、设备运维管理、用户业务趋势分析等。
-
安全云脑的安全分析功能支持云服务安全日志数据采集、数据检索、数据消费功能,提供专业级的安全分析能力,实现对云负载、各类应用及数据的安全保护。
更多相关专题
更多精彩内容
域名注册服务机构许可:黔D3-20230001 代理域名注册服务机构:新网、西数