[快速入门]避免用户密码暴露于事件日志
Web应用防火墙 WAF功能

熔断功能开关,实现宕机保护和读等待URL请求保护。 手动设置网站连接超时时间 • 浏览器到WAF引擎的连接超时时长默认是120秒,该值取决浏览器的配置,该值在WAF界面不可以手动设置。 • WAF到客户源站的连接超时时长默认为60秒,该值可以在WAF界面手动设置,但仅“独享模式

数据仓库服务 GaussDB(DWS)功能

sDB(DWS) 为用户提供了简单易用的Web管理控制台,让用户可以快速申请集群,轻松执行数据仓库管理任务,专注数据和业务。 集群管理的主要功能如下: 1)创建集群 如果用户需要在云上环境中使用数据仓库服务,首先应创建一个GaussDB(DWS)集群。用户可根据业务需求选择相应

云数据库 TaurusDB 功能

创建实例告警 事件监控 事件监控提供了事件类型数据上报、查询和告警的功能。方便您将业务中的各类重要事件或对云资源的操作事件收集到云监控服务,并在事件发生时进行告警。 事件监控 日志管理 支持查看慢日志和错误日志。您可以通过错误日志分析系统中存在的问题,可以通过慢日志查找分析执行效率低的SQL语句。

语音通话Voice Call

作为短信验证码的补充,重要验证码可电话发送,防止短信拦截 防短信被盗 转账确认、密码找回等场景,语音播放验证码,可防止短信被盗,避免财务损失 语音通知 应用场景 用户接到电话,语音播放通知,提醒用户及时处理事件。 播完通知后,用户还可以按键反馈。用于故障提醒,事件通知(上课/消费/排队/日程)等场景 优势 强提醒模式

数据加密服务

性和加密效率。 优势 集中管理 KMS负责统一管理用户主密钥、数据加密密钥,定期自动轮换用户主密钥,提高密钥安全性,防止密钥泄露 安全高效 客户的文件在本地即可完成加解密,文件无需通过互联网上传至加密机进行加解密,避免本地文件暴露风险,降低流量开销,提高加解密效率 搭配使用 密钥管理服务

华为云安全

安全云脑 新品 三分建设,七分运营,华为云上安全运营经验为您护航 漏洞管理服务 自动发现网站或服务器暴露在网络中的安全风险 云审计服务 为您提供云账户下资源的操作记录日志服务 提供日志收集、实时查询、存储等功能 保护您的云工作负载 主机安全 优惠 服务器贴身安全管家,修漏洞、防勒索、防入侵、防篡改

事件网格_EventGrid-华为云

计费通知 EventGrid事件流特性2024年4月30日 00:00(北京时间)计费 了解详情 为什么选择事件网格 EG 开放兼容 开放兼容 原生兼容CloudEvents 1.0开源社区标准协议、OpenSchema 1.0协议,原生支持cloudevents SDK和API,全面拥抱开源生态。

云审计服务 CTS 功能

所有操作记录在该追踪器中。 事件 事件即云审计服务追踪并保存的云服务资源的操作日志。您可以通过“事件”了解到谁在什么时间对系统哪些资源做了什么操作。 事件分为以下两类:管理事件和数据事件,管理事件指云服务上报的事件,数据事件指OBS服务上报的读写操作事件事件文件 事件文件是系

威胁检测服务 入门

华为云咨询电话:950808或4000-955-988 转1 华为云咨询电话:950808或4000-955-988 转1 华为云专业的服务团队,致力为您提供专业的售前购买咨询服务,及完善的售后技术服务,助您云上无忧

[相关产品]避免用户密码暴露于事件日志
日志易日志搜索分析软件

log流式上传到日志易服务器,也可以通过HTTP POST上传日志文件。日志接收日志上传到日志易的中央接收器,进入缓冲队列,等候处理。字段抽取日志易系统通过系统自带或用户配置的规则引擎解析日志,抽取关键字段,将非结构化的日志转化为结构化数据。索引对关键字段及日志全文做分布式索引,

日志易日志搜索分析软件 (HCS版)

log流式上传到日志易服务器,也可以通过HTTP POST上传日志文件。日志接收日志上传到日志易的中央接收器,进入缓冲队列,等候处理。字段抽取日志易系统通过系统自带或用户配置的规则引擎解析日志,抽取关键字段,将非结构化的日志转化为结构化数据。索引对关键字段及日志全文做分布式索引,

安全事件处置服务

后,协助恢复用户的正常业务服务4.   事件分析从网络流量、系统日志、Web日志记录、应用日志、数据库日志以及结合安全产品数据,分析黑客入侵手法,调查造成安全事件的原因,确定安全事件的威胁和破坏的严重程度。5.   事件报告事件处理完毕后,根据整个事件情况写《安全事件应急响应报告

事件中心软件

事件中心沉淀了丰富行业知识,赋能行业应用快速构建。它重塑政府数字化架构,携手行业领先伙伴,使能政府客户业务发展和持续创新。事件中心支持灵活的运行态配置扩展,给客户带来的价值包括业务快速上市,节约建设成本,提升业务效率。事件中心包含8个中心,可以灵活组合支撑不同业务场景。事项中心:

软通动力WEB应用防火墙系统

自定义。监控记录:连接监控、攻击事件监控等。核心优势:可靠性:通过防护集群作用,避免单点故障和冗余,并且支持横向扩容,可根据实际流量情况,缩减或增加集群服务器的数量,进行服务能力弹性扩容。简易性:30分钟内部署和激活。事件可追溯:完整的记录攻击事件的各种元素,方便客户分析和了解攻

日志易日志搜索分析软件配套服务(HCS)

log流式上传到日志易服务器,也可以通过HTTP POST上传日志文件。日志接收日志上传到日志易的中央接收器,进入缓冲队列,等候处理。字段抽取日志易系统通过系统自带或用户配置的规则引擎解析日志,抽取关键字段,将非结构化的日志转化为结构化数据。索引对关键字段及日志全文做分布式索引,

城市事件智能处置中心

城市事件智能处置中心系统,基于多级区域平台,对于城市问题进行感知发现,统一归集,指挥调度和处置。解决城市管理问题发现难、查找难、管理难的现状遵循“高效处置一件事”的理念,以城市管理问题为核心,基于城市地理信息与基础设施数据,实现市、区县、街镇三级运行体系,对权责清单、设定流程、网

亚信日志平台

Log4x是一款通过简单配置即可使用的功能强大的日志管理及分析平台。它通过对系统主机、中间件、数据库及各应用系统产品的日志,进行统一收集、多维分析和灵活呈现Log4x实现对系统所涉及范围内的主机、服务器、网络设备、数据库以及各种应用服务系统访问等产生的日志,进行收集、分析和呈现。通过定义日志筛选规则和策略,帮助

用户传输装置

该装置是成都安吉斯信息技术有限公司基于市场需求研发的信息采集传输设备,主要用于从用户的接收消防火灾报警主机获取各类用户报警信息和设备状态信息,是城市消防远程监控系统的核心前端设备产品描述:通过该数据传输装置,可将社会单位的消防报警控制柜(气体灭火控制器、火灾报警控制器、电气火灾监

[相似文章]避免用户密码暴露于事件日志
分布式缓存服务Redis的安全能力_分布式缓存服务Redis的数据安全性

对不同角色的IAM用户仅设置最小权限,避免权限过大导致数据泄露或被误操作。 为了更好的进行权限隔离和管理,建议您配置独立的IAM管理员,授予IAM管理员IAM策略的管理权限。 IAM管理员可以根据您业务的实际诉求创建不同的用户组,用户组对应不同的数据访问场景,通过将用户添加到用户组并将IA

华为云事件网格_事件源_事件目标

分布式的事件驱动架构。 立即使用 帮助文档 云服务事件集成使用向导 开通事件源云服务 配置事件订阅 触发云服务事件 开始体验 华为云服务事件发送流程 操作场景 华为云对象存储服务(Object Storage Service,简称OBS)作为云服务事件源将产生的云服务事件发送到事

事件网格是什么_事件发送流程_事件网格消息中间件

在一起,通过事件规则将事件源发出的事件路由到事件目标。 事件处理 事件网格提供以下事件处理能力: 传输事件 过滤事件 路由事件 自定义事件集成使用向导 创建事件通道 创建事件源 配置事件订阅 调用SDK发送事件 云服务事件集成使用向导 开通事件源云服务 配置事件订阅 触发云服务事件

等保合规最佳实践

该最佳实践将主要聚焦满足以下等保条例的考察内容: 1、应在网络边界、重要网络节点进行安全审计,审计覆盖到每个用户,对重要的用户行为和重要安全事件进行审计; 2、审计记录应包括事件的日期和时间、用户事件类型、事件是否成功及其他与审计相关的信息; 3、应对审计记录进行保护,定期备份,避免受到未预期的删除、修改或覆盖等;

等保安全_云堡垒机_等保最佳实践-华为云

该最佳实践将主要聚焦满足以下等保条例的考察内容: 1、应在网络边界、重要网络节点进行安全审计,审计覆盖到每个用户,对重要的用户行为和重要安全事件进行审计; 2、审计记录应包括事件的日期和时间、用户事件类型、事件是否成功及其他与审计相关的信息; 3、应对审计记录进行保护,定期备份,避免受到未预期的删除、修改或覆盖等;

数据安全-云堡垒机-等保最佳实践

该最佳实践将主要聚焦满足以下等保条例的考察内容: 1、应在网络边界、重要网络节点进行安全审计,审计覆盖到每个用户,对重要的用户行为和重要安全事件进行审计; 2、审计记录应包括事件的日期和时间、用户事件类型、事件是否成功及其他与审计相关的信息; 3、应对审计记录进行保护,定期备份,避免受到未预期的删除、修改或覆盖等;

日志搜索_日志搜索工具_日志搜索平台

您可以在华为云官网使用云日志服务进行日志搜索与查看。日志搜索与查看的操作指引如下: 1.日志组和日志流是云日志服务进行日志管理的基本单位,在使用云日志服务时,您首先需要创建一个日志组和日志流,具体操作请参见创建日志日志流 2.ICAgent是云日志服务的日志采集工具,运行在需要采集日志的云主机中。首次使用云日志

日志监控与告警_日志告警规则_如何配置日志告警_日志分析_日志服务

topic。 云日志服务日志告警操作指导教程 云日志服务介绍视频帮助您快速了解如何使用云日志服务 了解更多 日志接入 03:36 介绍日志如何接入 日志接入 介绍日志如何接入 结构化配置 06:20 介绍如何配置日志结构化 结构化配置 介绍如何配置日志结构化 日志告警 03:46

云日志服务_LTS_云日志_日志接入

t将按照日志采集规则采集日志,并将多条日志进行打包,以日志流为单位发往云日志服务,您可以在云日志服务控制台实时查看日志。 云日志服务可以将主机待采集日志的路径配置到日志流中,ICAgent将按照日志采集规则采集日志,并将多条日志进行打包,以日志流为单位发往云日志服务,您可以在云日志服务控制台实时查看日志。

避免用户密码暴露于事件日志

创建JDBC表用于与输入流连接。

前提条件

请务必确保您的账户下已创建了相应实例。

注意事项

  • 创建Flink OpenSource SQL作业时,在作业编辑界面的“运行参数”处,“Flink版本”需要选择“1.12”,勾选“保存作业日志”并设置保存作业日志的 OBS 桶,方便后续查看作业日志。
  • Flink跨源开发场景中直接配置跨源认证信息存在密码泄露的风险,优先推荐您使用 DLI 提供的跨源认证。

    跨源认证简介及操作方法请参考跨源认证简介

语法格式

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
CREATE TABLE  table_id (
  attr_name attr_type 
  (',' attr_name attr_type)* 
)
  WITH (
  'connector' = 'jdbc',
  'url' = '',
  'table-name' = '',
  'driver' = '',
  'username' = '',
  'password' = ''
);

参数说明

表1 参数说明

参数

是否必选

说明

connector

数据源类型,固定为:jdbc。

url

数据库 的URL。

table-name

读取数据库中的数据所在的表名。

driver

连接数据库所需要的驱动。若未配置,则会自动通过URL提取。

username

数据库认证用户名,需要和'password'一起配置。

password

数据库认证密码,需要和'username'一起配置。

scan.partition.column

用于对输入进行分区的列名。

与scan.partition.lower-bound、scan.partition.upper-bound、scan.partition.num必须同时存在或者同时不存在。

scan.partition.lower-bound

第一个分区的最小值。

与scan.partition.column、scan.partition.upper-bound、scan.partition.num必须同时存在或者同时不存在

scan.partition.upper-bound

最后一个分区的最大值。

与scan.partition.column、scan.partition.lower-bound、scan.partition.num必须同时存在或者同时不存在

scan.partition.num

分区的个数。

与scan.partition.column、scan.partition.upper-bound、scan.partition.upper-bound必须同时存在或者同时不存在。

scan.fetch-size

每次从数据库拉取数据的行数。默认值为0,表示忽略该提示。

lookup.cache.max-rows

维表配置,缓存的最大行数,超过该值时,最先添加的数据将被标记为过期。-1表示不使用缓存。

lookup.cache.ttl

维表配置,缓存超时时间,超过该时间的数据会被剔除。格式为:{length value}{time unit label},如123ms, 321s,支持的时间单位包括: d,h,min,s,ms等,默认为ms。

lookup.max-retries

维表配置,数据拉取最大重试次数,默认为3。

pwd_auth_name

DLI侧创建的Password类型的跨源认证名称。

数据类型映射

表2 数据类型映射

MySQL类型

PostgreSQL 类型

Flink SQL类型

TINYINT

-

TINYINT

SMALLINT

TINYINT UNSIGNED

SMALLINT

INT2

SMALLSERIAL

SERIAL2

SMALLINT

INT

MEDIUMINT

SMALLINT UNSIGNED

INTEGER

SERIAL

INT

BIGINT

INT UNSIGNED

BIGINT

BIGSERIAL

BIGINT

BIGINT UNSIGNED

-

DECIMAL(20, 0)

BIGINT

BIGINT

BIGINT

FLOAT

REAL

FLOAT4

FLOAT

DOUBLE

DOUBLE PRECISION

FLOAT8

DOUBLE PRECISION

DOUBLE

NUMERIC(p, s)

DECIMAL(p, s)

NUMERIC(p, s)

DECIMAL(p, s)

DECIMAL(p, s)

BOOLEAN

TINYINT(1)

BOOLEAN

BOOLEAN

DATE

DATE

DATE

TIME [(p)]

TIME [(p)] [WITHOUT TIMEZONE]

TIME [(p)] [WITHOUT TIMEZONE]

DATETIME [(p)]

TIMESTAMP [(p)] [WITHOUT TIMEZONE]

TIMESTAMP [(p)] [WITHOUT TIMEZONE]

CHAR(n)

VARCHAR(n)

TEXT

CHAR(n)

CHARACTER(n)

VARCHAR(n)

CHARACTER

VARYING(n)

TEXT

STRING

BINARY

VARBINARY

BLOB

BYTEA

BYTES

-

ARRAY

ARRAY

示例

从Kafka源表中读取数据,将JDBC表作为维表,并将二者生成的表信息写入Kafka结果表中,其具体步骤如下:

  1. 参考增强型跨源连接,在DLI上根据MySQL和Kafka所在的 虚拟私有云 和子网分别创建相应的增强型跨源连接,并绑定所要使用的Flink弹性资源池。
  2. 设置MySQL和Kafka的安全组,添加入向规则使其对Flink的队列网段放通。参考测试地址连通性分别根据MySQL和Kafka的地址测试队列连通性。若能连通,则表示跨源已经绑定成功,否则表示未成功。
  3. 连接MySQL数据库实例,在flink数据库中创建相应的表,作为维表,表名为area_info,SQL语句如下:
    CREATE TABLE `flink`.`area_info` (
    	`area_id` VARCHAR(32) NOT NULL,
    	`area_province_name` VARCHAR(32) NOT NULL,
    	`area_city_name` VARCHAR(32) NOT NULL,
    	`area_county_name` VARCHAR(32) NOT NULL,
    	`area_street_name` VARCHAR(32) NOT NULL,
    	`region_name` VARCHAR(32) NOT NULL,
    	PRIMARY KEY (`area_id`)
    )	ENGINE = InnoDB
    	DEFAULT CHARACTER SET = utf8mb4
    	COLLATE = utf8mb4_general_ci;
  4. 连接MySQL数据库实例,向JDBC维表area_info中插入测试数据,其语句如下:
    insert into flink.area_info
      (area_id, area_province_name, area_city_name, area_county_name, area_street_name, region_name) 
      values
      ('330102', 'a1', 'b1', 'c1', 'd1', 'e1'),
      ('330106', 'a1', 'b1', 'c2', 'd2', 'e1'),
      ('330108', 'a1', 'b1', 'c3', 'd3', 'e1'),  ('330110', 'a1', 'b1', 'c4', 'd4', 'e1');
  5. 参考创建Flink OpenSource作业,创建flink opensource sql作业,输入以下作业运行脚本,提交运行作业。该作业脚本将Kafka为数据源,JDBC作为维表,数据写入到Kafka结果表。
    注意:创建作业时,在作业编辑界面的“运行参数”处,“Flink版本”选择“1.12”,勾选“保存作业日志”并设置保存作业日志的OBS桶,方便后续查看作业日志。如下脚本中的加粗参数请根据实际环境修改
     1
     2
     3
     4
     5
     6
     7
     8
     9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    CREATE TABLE orders (
      order_id string,
      order_channel string,
      order_time string,
      pay_amount double,
      real_pay double,
      pay_time string,
      user_id string,
      user_name string,
      area_id string,
      proctime as Proctime()
    ) WITH (
      'connector' = 'kafka',
      'topic' = 'KafkaSourceTopic',
      'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort',
      'properties.group.id' = 'jdbc-order',
      'scan.startup.mode' = 'latest-offset',
      'format' = 'json'
    );
    
    --创建地址维表
    create table area_info (
        area_id string, 
        area_province_name string,
        area_city_name string,
        area_county_name string, 
        area_street_name string, 
        region_name string 
    ) WITH (
      'connector' = 'jdbc',
      'url' = 'jdbc:mysql://JDBCAddress:JDBCPort/flink',--其中url中的flink表示MySQL中area_info表所在的数据库名
      'table-name' = 'area_info',
      'username' = 'JDBCUserName',
      'password' = 'JDBCPassWord'
    );
    
    --根据地址维表生成详细的包含地址的订单信息宽表
    create table order_detail(
        order_id string,
        order_channel string,
        order_time string,
        pay_amount double,
        real_pay double,
        pay_time string,
        user_id string,
        user_name string,
        area_id string,
        area_province_name string,
        area_city_name string,
        area_county_name string,
        area_street_name string,
        region_name string
    ) with (
      'connector' = 'kafka',
      'topic' = 'KafkaSinkTopic',
      'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort',
      'format' = 'json'
    );
    
    insert into order_detail
        select orders.order_id, orders.order_channel, orders.order_time, orders.pay_amount, orders.real_pay, orders.pay_time, orders.user_id, orders.user_name,
               area.area_id, area.area_province_name, area.area_city_name, area.area_county_name,
               area.area_street_name, area.region_name  from orders 
               left join area_info for system_time as of orders.proctime as area on orders.area_id = area.area_id;
    
  6. 连接Kafka集群,向Kafka的source topic中插入如下测试数据:
    {"order_id":"202103241606060001", "order_channel":"appShop", "order_time":"2021-03-24 16:06:06", "pay_amount":"200.00", "real_pay":"180.00", "pay_time":"2021-03-24 16:10:06", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}
    
    {"order_id":"202103251202020001", "order_channel":"miniAppShop", "order_time":"2021-03-25 12:02:02", "pay_amount":"60.00", "real_pay":"60.00", "pay_time":"2021-03-25 12:03:00", "user_id":"0002", "user_name":"Bob", "area_id":"330110"}
    
    {"order_id":"202103251505050001", "order_channel":"qqShop", "order_time":"2021-03-25 15:05:05", "pay_amount":"500.00", "real_pay":"400.00", "pay_time":"2021-03-25 15:10:00", "user_id":"0003", "user_name":"Cindy", "area_id":"330108"}
  7. 连接Kafka集群,在Kafka的sink topic读取数据,结果参考如下:
    {"order_id":"202103241606060001","order_channel":"appShop","order_time":"2021-03-24 16:06:06","pay_amount":200.0,"real_pay":180.0,"pay_time":"2021-03-24 16:10:06","user_id":"0001","user_name":"Alice","area_id":"330106","area_province_name":"a1","area_city_name":"b1","area_county_name":"c2","area_street_name":"d2","region_name":"e1"}
    
    {"order_id":"202103251202020001","order_channel":"miniAppShop","order_time":"2021-03-25 12:02:02","pay_amount":60.0,"real_pay":60.0,"pay_time":"2021-03-25 12:03:00","user_id":"0002","user_name":"Bob","area_id":"330110","area_province_name":"a1","area_city_name":"b1","area_county_name":"c4","area_street_name":"d4","region_name":"e1"}
    
    {"order_id":"202103251505050001","order_channel":"qqShop","order_time":"2021-03-25 15:05:05","pay_amount":500.0,"real_pay":400.0,"pay_time":"2021-03-25 15:10:00","user_id":"0003","user_name":"Cindy","area_id":"330108","area_province_name":"a1","area_city_name":"b1","area_county_name":"c3","area_street_name":"d3","region_name":"e1"}

常见问题

无。

避免用户密码暴露于事件日志常见问题

更多常见问题 >>