避免用户密码暴露于事件日志
熔断功能开关,实现宕机保护和读等待URL请求保护。 手动设置网站连接超时时间 • 浏览器到WAF引擎的连接超时时长默认是120秒,该值取决于浏览器的配置,该值在WAF界面不可以手动设置。 • WAF到客户源站的连接超时时长默认为60秒,该值可以在WAF界面手动设置,但仅“独享模式
sDB(DWS) 为用户提供了简单易用的Web管理控制台,让用户可以快速申请集群,轻松执行数据仓库管理任务,专注于数据和业务。 集群管理的主要功能如下: 1)创建集群 如果用户需要在云上环境中使用数据仓库服务,首先应创建一个GaussDB(DWS)集群。用户可根据业务需求选择相应
创建实例告警 事件监控 事件监控提供了事件类型数据上报、查询和告警的功能。方便您将业务中的各类重要事件或对云资源的操作事件收集到云监控服务,并在事件发生时进行告警。 事件监控 日志管理 支持查看慢日志和错误日志。您可以通过错误日志分析系统中存在的问题,可以通过慢日志查找分析执行效率低的SQL语句。
作为短信验证码的补充,重要验证码可电话发送,防止短信拦截 防短信被盗 转账确认、密码找回等场景,语音播放验证码,可防止短信被盗,避免财务损失 语音通知 应用场景 用户接到电话,语音播放通知,提醒用户及时处理事件。 播完通知后,用户还可以按键反馈。用于故障提醒,事件通知(上课/消费/排队/日程)等场景 优势 强提醒模式
性和加密效率。 优势 集中管理 KMS负责统一管理用户主密钥、数据加密密钥,定期自动轮换用户主密钥,提高密钥安全性,防止密钥泄露 安全高效 客户的文件在本地即可完成加解密,文件无需通过互联网上传至加密机进行加解密,避免本地文件暴露风险,降低流量开销,提高加解密效率 搭配使用 密钥管理服务
安全云脑 新品 三分建设,七分运营,华为云上安全运营经验为您护航 漏洞管理服务 自动发现网站或服务器暴露在网络中的安全风险 云审计服务 为您提供云账户下资源的操作记录 云日志服务 提供日志收集、实时查询、存储等功能 保护您的云工作负载 主机安全 优惠 服务器贴身安全管家,修漏洞、防勒索、防入侵、防篡改
计费通知 EventGrid事件流特性于2024年4月30日 00:00(北京时间)计费 了解详情 为什么选择事件网格 EG 开放兼容 开放兼容 原生兼容CloudEvents 1.0开源社区标准协议、OpenSchema 1.0协议,原生支持cloudevents SDK和API,全面拥抱开源生态。
所有操作记录在该追踪器中。 事件 事件即云审计服务追踪并保存的云服务资源的操作日志。您可以通过“事件”了解到谁在什么时间对系统哪些资源做了什么操作。 事件分为以下两类:管理事件和数据事件,管理事件指云服务上报的事件,数据事件指OBS服务上报的读写操作事件。 事件文件 事件文件是系
华为云咨询电话:950808或4000-955-988 转1 华为云咨询电话:950808或4000-955-988 转1 华为云专业的服务团队,致力于为您提供专业的售前购买咨询服务,及完善的售后技术服务,助您云上无忧
log流式上传到日志易服务器,也可以通过HTTP POST上传日志文件。日志接收日志上传到日志易的中央接收器,进入缓冲队列,等候处理。字段抽取日志易系统通过系统自带或用户配置的规则引擎解析日志,抽取关键字段,将非结构化的日志转化为结构化数据。索引对关键字段及日志全文做分布式索引,
log流式上传到日志易服务器,也可以通过HTTP POST上传日志文件。日志接收日志上传到日志易的中央接收器,进入缓冲队列,等候处理。字段抽取日志易系统通过系统自带或用户配置的规则引擎解析日志,抽取关键字段,将非结构化的日志转化为结构化数据。索引对关键字段及日志全文做分布式索引,
后,协助恢复用户的正常业务服务4. 事件分析从网络流量、系统日志、Web日志记录、应用日志、数据库日志以及结合安全产品数据,分析黑客入侵手法,调查造成安全事件的原因,确定安全事件的威胁和破坏的严重程度。5. 事件报告事件处理完毕后,根据整个事件情况写《安全事件应急响应报告
事件中心沉淀了丰富行业知识,赋能行业应用快速构建。它重塑政府数字化架构,携手行业领先伙伴,使能政府客户业务发展和持续创新。事件中心支持灵活的运行态配置扩展,给客户带来的价值包括业务快速上市,节约建设成本,提升业务效率。事件中心包含8个中心,可以灵活组合支撑不同业务场景。事项中心:
自定义。监控记录:连接监控、攻击事件监控等。核心优势:可靠性:通过防护集群作用,避免单点故障和冗余,并且支持横向扩容,可根据实际流量情况,缩减或增加集群服务器的数量,进行服务能力弹性扩容。简易性:30分钟内部署和激活。事件可追溯:完整的记录攻击事件的各种元素,方便客户分析和了解攻
log流式上传到日志易服务器,也可以通过HTTP POST上传日志文件。日志接收日志上传到日志易的中央接收器,进入缓冲队列,等候处理。字段抽取日志易系统通过系统自带或用户配置的规则引擎解析日志,抽取关键字段,将非结构化的日志转化为结构化数据。索引对关键字段及日志全文做分布式索引,
城市事件智能处置中心系统,基于多级区域平台,对于城市问题进行感知发现,统一归集,指挥调度和处置。解决城市管理问题发现难、查找难、管理难的现状遵循“高效处置一件事”的理念,以城市管理问题为核心,基于城市地理信息与基础设施数据,实现市、区县、街镇三级运行体系,对权责清单、设定流程、网
Log4x是一款通过简单配置即可使用的功能强大的日志管理及分析平台。它通过对系统主机、中间件、数据库及各应用系统产品的日志,进行统一收集、多维分析和灵活呈现Log4x实现对系统所涉及范围内的主机、服务器、网络设备、数据库以及各种应用服务系统访问等产生的日志,进行收集、分析和呈现。通过定义日志筛选规则和策略,帮助
该装置是成都安吉斯信息技术有限公司基于市场需求研发的信息采集传输设备,主要用于从用户的接收消防火灾报警主机获取各类用户报警信息和设备状态信息,是城市消防远程监控系统的核心前端设备产品描述:通过该数据传输装置,可将社会单位的消防报警控制柜(气体灭火控制器、火灾报警控制器、电气火灾监
对不同角色的IAM用户仅设置最小权限,避免权限过大导致数据泄露或被误操作。 为了更好的进行权限隔离和管理,建议您配置独立的IAM管理员,授予IAM管理员IAM策略的管理权限。 IAM管理员可以根据您业务的实际诉求创建不同的用户组,用户组对应不同的数据访问场景,通过将用户添加到用户组并将IA
分布式的事件驱动架构。 立即使用 帮助文档 云服务事件集成使用向导 开通事件源云服务 配置事件订阅 触发云服务事件 开始体验 华为云服务事件发送流程 操作场景 华为云对象存储服务(Object Storage Service,简称OBS)作为云服务事件源将产生的云服务事件发送到事
在一起,通过事件规则将事件源发出的事件路由到事件目标。 事件处理 事件网格提供以下事件处理能力: 传输事件 过滤事件 路由事件 自定义事件集成使用向导 创建事件通道 创建事件源 配置事件订阅 调用SDK发送事件 云服务事件集成使用向导 开通事件源云服务 配置事件订阅 触发云服务事件
该最佳实践将主要聚焦于满足以下等保条例的考察内容: 1、应在网络边界、重要网络节点进行安全审计,审计覆盖到每个用户,对重要的用户行为和重要安全事件进行审计; 2、审计记录应包括事件的日期和时间、用户、事件类型、事件是否成功及其他与审计相关的信息; 3、应对审计记录进行保护,定期备份,避免受到未预期的删除、修改或覆盖等;
该最佳实践将主要聚焦于满足以下等保条例的考察内容: 1、应在网络边界、重要网络节点进行安全审计,审计覆盖到每个用户,对重要的用户行为和重要安全事件进行审计; 2、审计记录应包括事件的日期和时间、用户、事件类型、事件是否成功及其他与审计相关的信息; 3、应对审计记录进行保护,定期备份,避免受到未预期的删除、修改或覆盖等;
该最佳实践将主要聚焦于满足以下等保条例的考察内容: 1、应在网络边界、重要网络节点进行安全审计,审计覆盖到每个用户,对重要的用户行为和重要安全事件进行审计; 2、审计记录应包括事件的日期和时间、用户、事件类型、事件是否成功及其他与审计相关的信息; 3、应对审计记录进行保护,定期备份,避免受到未预期的删除、修改或覆盖等;
您可以在华为云官网使用云日志服务进行日志搜索与查看。日志搜索与查看的操作指引如下: 1.日志组和日志流是云日志服务进行日志管理的基本单位,在使用云日志服务时,您首先需要创建一个日志组和日志流,具体操作请参见创建日志组日志流 2.ICAgent是云日志服务的日志采集工具,运行在需要采集日志的云主机中。首次使用云日志服
topic。 云日志服务日志告警操作指导教程 云日志服务介绍视频帮助您快速了解如何使用云日志服务 了解更多 日志接入 03:36 介绍日志如何接入 日志接入 介绍日志如何接入 结构化配置 06:20 介绍如何配置日志结构化 结构化配置 介绍如何配置日志结构化 日志告警 03:46
t将按照日志采集规则采集日志,并将多条日志进行打包,以日志流为单位发往云日志服务,您可以在云日志服务控制台实时查看日志。 云日志服务可以将主机待采集日志的路径配置到日志流中,ICAgent将按照日志采集规则采集日志,并将多条日志进行打包,以日志流为单位发往云日志服务,您可以在云日志服务控制台实时查看日志。
避免用户密码暴露于事件日志
创建JDBC表用于与输入流连接。
前提条件
请务必确保您的账户下已创建了相应实例。
注意事项
语法格式
1 2 3 4 5 6 7 8 9 10 11 12 |
CREATE TABLE table_id ( attr_name attr_type (',' attr_name attr_type)* ) WITH ( 'connector' = 'jdbc', 'url' = '', 'table-name' = '', 'driver' = '', 'username' = '', 'password' = '' ); |
参数说明
参数 |
是否必选 |
说明 |
---|---|---|
connector |
是 |
数据源类型,固定为:jdbc。 |
url |
是 |
数据库 的URL。 |
table-name |
是 |
读取数据库中的数据所在的表名。 |
driver |
否 |
连接数据库所需要的驱动。若未配置,则会自动通过URL提取。 |
username |
否 |
数据库认证用户名,需要和'password'一起配置。 |
password |
否 |
数据库认证密码,需要和'username'一起配置。 |
scan.partition.column |
否 |
用于对输入进行分区的列名。 与scan.partition.lower-bound、scan.partition.upper-bound、scan.partition.num必须同时存在或者同时不存在。 |
scan.partition.lower-bound |
否 |
第一个分区的最小值。 与scan.partition.column、scan.partition.upper-bound、scan.partition.num必须同时存在或者同时不存在 |
scan.partition.upper-bound |
否 |
最后一个分区的最大值。 与scan.partition.column、scan.partition.lower-bound、scan.partition.num必须同时存在或者同时不存在 |
scan.partition.num |
否 |
分区的个数。 与scan.partition.column、scan.partition.upper-bound、scan.partition.upper-bound必须同时存在或者同时不存在。 |
scan.fetch-size |
否 |
每次从数据库拉取数据的行数。默认值为0,表示忽略该提示。 |
lookup.cache.max-rows |
否 |
维表配置,缓存的最大行数,超过该值时,最先添加的数据将被标记为过期。-1表示不使用缓存。 |
lookup.cache.ttl |
否 |
维表配置,缓存超时时间,超过该时间的数据会被剔除。格式为:{length value}{time unit label},如123ms, 321s,支持的时间单位包括: d,h,min,s,ms等,默认为ms。 |
lookup.max-retries |
否 |
维表配置,数据拉取最大重试次数,默认为3。 |
pwd_auth_name |
否 |
DLI侧创建的Password类型的跨源认证名称。 |
数据类型映射
MySQL类型 |
PostgreSQL 类型 |
Flink SQL类型 |
---|---|---|
TINYINT |
- |
TINYINT |
SMALLINT TINYINT UNSIGNED |
SMALLINT INT2 SMALLSERIAL SERIAL2 |
SMALLINT |
INT MEDIUMINT SMALLINT UNSIGNED |
INTEGER SERIAL |
INT |
BIGINT INT UNSIGNED |
BIGINT BIGSERIAL |
BIGINT |
BIGINT UNSIGNED |
- |
DECIMAL(20, 0) |
BIGINT |
BIGINT |
BIGINT |
FLOAT |
REAL FLOAT4 |
FLOAT |
DOUBLE DOUBLE PRECISION |
FLOAT8 DOUBLE PRECISION |
DOUBLE |
NUMERIC(p, s) DECIMAL(p, s) |
NUMERIC(p, s) DECIMAL(p, s) |
DECIMAL(p, s) |
BOOLEAN TINYINT(1) |
BOOLEAN |
BOOLEAN |
DATE |
DATE |
DATE |
TIME [(p)] |
TIME [(p)] [WITHOUT TIMEZONE] |
TIME [(p)] [WITHOUT TIMEZONE] |
DATETIME [(p)] |
TIMESTAMP [(p)] [WITHOUT TIMEZONE] |
TIMESTAMP [(p)] [WITHOUT TIMEZONE] |
CHAR(n) VARCHAR(n) TEXT |
CHAR(n) CHARACTER(n) VARCHAR(n) CHARACTER VARYING(n) TEXT |
STRING |
BINARY VARBINARY BLOB |
BYTEA |
BYTES |
- |
ARRAY |
ARRAY |
示例
从Kafka源表中读取数据,将JDBC表作为维表,并将二者生成的表信息写入Kafka结果表中,其具体步骤如下:
- 参考增强型跨源连接,在DLI上根据MySQL和Kafka所在的 虚拟私有云 和子网分别创建相应的增强型跨源连接,并绑定所要使用的Flink弹性资源池。
- 设置MySQL和Kafka的安全组,添加入向规则使其对Flink的队列网段放通。参考测试地址连通性分别根据MySQL和Kafka的地址测试队列连通性。若能连通,则表示跨源已经绑定成功,否则表示未成功。
- 连接MySQL数据库实例,在flink数据库中创建相应的表,作为维表,表名为area_info,SQL语句如下:
CREATE TABLE `flink`.`area_info` ( `area_id` VARCHAR(32) NOT NULL, `area_province_name` VARCHAR(32) NOT NULL, `area_city_name` VARCHAR(32) NOT NULL, `area_county_name` VARCHAR(32) NOT NULL, `area_street_name` VARCHAR(32) NOT NULL, `region_name` VARCHAR(32) NOT NULL, PRIMARY KEY (`area_id`) ) ENGINE = InnoDB DEFAULT CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci;
- 连接MySQL数据库实例,向JDBC维表area_info中插入测试数据,其语句如下:
insert into flink.area_info (area_id, area_province_name, area_city_name, area_county_name, area_street_name, region_name) values ('330102', 'a1', 'b1', 'c1', 'd1', 'e1'), ('330106', 'a1', 'b1', 'c2', 'd2', 'e1'), ('330108', 'a1', 'b1', 'c3', 'd3', 'e1'), ('330110', 'a1', 'b1', 'c4', 'd4', 'e1');
- 参考创建Flink OpenSource作业,创建flink opensource sql作业,输入以下作业运行脚本,提交运行作业。该作业脚本将Kafka为数据源,JDBC作为维表,数据写入到Kafka结果表。
注意:创建作业时,在作业编辑界面的“运行参数”处,“Flink版本”选择“1.12”,勾选“保存作业日志”并设置保存作业日志的OBS桶,方便后续查看作业日志。如下脚本中的加粗参数请根据实际环境修改。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64
CREATE TABLE orders ( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string, proctime as Proctime() ) WITH ( 'connector' = 'kafka', 'topic' = 'KafkaSourceTopic', 'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort', 'properties.group.id' = 'jdbc-order', 'scan.startup.mode' = 'latest-offset', 'format' = 'json' ); --创建地址维表 create table area_info ( area_id string, area_province_name string, area_city_name string, area_county_name string, area_street_name string, region_name string ) WITH ( 'connector' = 'jdbc', 'url' = 'jdbc:mysql://JDBCAddress:JDBCPort/flink',--其中url中的flink表示MySQL中area_info表所在的数据库名 'table-name' = 'area_info', 'username' = 'JDBCUserName', 'password' = 'JDBCPassWord' ); --根据地址维表生成详细的包含地址的订单信息宽表 create table order_detail( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string, area_province_name string, area_city_name string, area_county_name string, area_street_name string, region_name string ) with ( 'connector' = 'kafka', 'topic' = 'KafkaSinkTopic', 'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort', 'format' = 'json' ); insert into order_detail select orders.order_id, orders.order_channel, orders.order_time, orders.pay_amount, orders.real_pay, orders.pay_time, orders.user_id, orders.user_name, area.area_id, area.area_province_name, area.area_city_name, area.area_county_name, area.area_street_name, area.region_name from orders left join area_info for system_time as of orders.proctime as area on orders.area_id = area.area_id;
- 连接Kafka集群,向Kafka的source topic中插入如下测试数据:
{"order_id":"202103241606060001", "order_channel":"appShop", "order_time":"2021-03-24 16:06:06", "pay_amount":"200.00", "real_pay":"180.00", "pay_time":"2021-03-24 16:10:06", "user_id":"0001", "user_name":"Alice", "area_id":"330106"} {"order_id":"202103251202020001", "order_channel":"miniAppShop", "order_time":"2021-03-25 12:02:02", "pay_amount":"60.00", "real_pay":"60.00", "pay_time":"2021-03-25 12:03:00", "user_id":"0002", "user_name":"Bob", "area_id":"330110"} {"order_id":"202103251505050001", "order_channel":"qqShop", "order_time":"2021-03-25 15:05:05", "pay_amount":"500.00", "real_pay":"400.00", "pay_time":"2021-03-25 15:10:00", "user_id":"0003", "user_name":"Cindy", "area_id":"330108"}
- 连接Kafka集群,在Kafka的sink topic读取数据,结果参考如下:
{"order_id":"202103241606060001","order_channel":"appShop","order_time":"2021-03-24 16:06:06","pay_amount":200.0,"real_pay":180.0,"pay_time":"2021-03-24 16:10:06","user_id":"0001","user_name":"Alice","area_id":"330106","area_province_name":"a1","area_city_name":"b1","area_county_name":"c2","area_street_name":"d2","region_name":"e1"} {"order_id":"202103251202020001","order_channel":"miniAppShop","order_time":"2021-03-25 12:02:02","pay_amount":60.0,"real_pay":60.0,"pay_time":"2021-03-25 12:03:00","user_id":"0002","user_name":"Bob","area_id":"330110","area_province_name":"a1","area_city_name":"b1","area_county_name":"c4","area_street_name":"d4","region_name":"e1"} {"order_id":"202103251505050001","order_channel":"qqShop","order_time":"2021-03-25 15:05:05","pay_amount":500.0,"real_pay":400.0,"pay_time":"2021-03-25 15:10:00","user_id":"0003","user_name":"Cindy","area_id":"330108","area_province_name":"a1","area_city_name":"b1","area_county_name":"c3","area_street_name":"d3","region_name":"e1"}
常见问题
无。
避免用户密码暴露于事件日志常见问题
更多常见问题 >>-
云日志服务常见问题-日志转储类的问题解决。
-
云日志服务常见问题-日志搜索与查看类的问题解决。
-
云日志服务可以帮助用户快速、精确地定位系统和应用中出现的问题。
-
”蓝凌数字办公管理平台“与”蓝凌数字办公管理基座“的配套服务
-
华为云分布式缓存服务是一款安全、可信的高速内存数据处理引擎,提供了安全组、白名单、SSL加密连接、自动备份等特性,以保障租户数据的可靠性和安全性。
-
事件即云审计服务追踪并保存的云服务资源的操作日志。您可以通过“事件”了解到谁在什么时间对系统哪些资源做了什么操作。事件分为以下两类:管理事件:指云服务上报的事件。数据事件:指OBS服务上报的读写操作事件。
更多相关专题
更多精彩内容
域名注册服务机构许可:黔D3-20230001 代理域名注册服务机构:新网、西数