检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
连接数据库的用户名。 密码 连接数据库的用户密码。 描述 填写连接器的描述信息,用于识别不同的连接器。 支持的动作 获取记录 增量获取记录 添加记录 更新记录 同步数据 删除记录 自定义SQL 配置参数 表1 获取记录 参数 说明 表名 选择或者填写要查询的数据库中的表名。 字段名
用户名 连接数据库的用户名。 密码 连接数据库的用户密码。 描述 填写连接器的描述信息,用于识别不同的连接器。 支持的动作 获取数据库变更 实时获取数据库变更 ,需要在数据库中启动CDC配置。 配置参数 表1 获取数据库变更 参数 说明 表名 填写或者选择要获取数据变更的数据表名。 数据库操作
配置索引生命周期策略(可选) ElasticSearch存储的数据,默认未设置过期时间,用户可根据磁盘空间情况,为ElasticSearch数据设置索引生命周期策略。 创建生命周期策略 登录Kibana可视化界面。 访问地址:IP:Port 其中,IP为ELK所部署服务器的IP;Port为K
“/”之间的部分。 请求路径中包含Path参数时,必须配置对应的入参定义。 请求路径中的内容区分大小写。 匹配模式 选择API请求路径的匹配模式。 绝对匹配:API请求中的请求路径要与“请求Path”的配置一致。 前缀匹配:API请求中的请求路径要以“请求Path”的配置为前缀。
conf文件中user和password的值,修改为与步骤4.c中设置的用户名密码一致。 vim /ELK/logstash/logstash.conf 执行以下命令修改kibana.yml文件中elasticsearch.username和elasticsearch.password的值,修改为与步骤4
最小值:0 最大值:10 created_user CreatedUser object 创建时的用户。 last_updated_user LastUpdatedUser object 最后更新时的用户。 created_datetime Long 创建时间,timestamp(ms),使用UTC时区。
实践中,ElasticSearch的副本数为1。 ElasticSearch存储的数据,默认未设置过期时间,用户可根据磁盘空间情况,为ElasticSearch数据配置索引生命周期策略。 10个 8核 16GB ELK:Kibana 5个 2核 256MB Kibana的磁盘空间
co/elasticsearch/elasticsearch:8.7.1 restart: always container_name: elasticsearch # 如果ElasticSearch占用资源过高,导致容器无法成功启动,可取消此处的代码注释,根据服务器情况对资源使用进行限制
本实践使用官方最新稳定版的Docker镜像(基于Docker、Docker-Compose)部署Filebeat和ELK。 前提条件 准备一台可连接公网的本地PC,系统为Linux,用于拉取Docker镜像。 已根据资源规划,完成服务器资源的准备,且ELK所部署的服务器与APIC的SHUBAO组件所在节点网络互通。
connection point is less than the quota. 总的节点路径超过节点路径的配额,请确保同一个Opcua连接点下导入的节点数加上已经存在的节点数少于节点的配额 减少导入的节点数或联系管理员申请配额。 500 ROMA.00111039 The topic
健康检查端口 unhealthy Integer 判定后端不健康的阈值,连续探测失败次数 缺省值:3 timeout Integer 探测后端的超时时间,单位秒 缺省值:3 interval Integer 探测后端的间隔时间,单位秒 缺省值:3 表8 NodeIps 参数 参数类型
ELK部署在独立服务器中,ELK的Logstash接收到日志数据后,根据设置的过滤解析规则,对日志数据进行拆分和过滤,然后将解析后的日志数据发送到ELK的ElasticSearch进行存储。 ELK的ElasticSearch接收到日志数据后,生成日志数据的索引并存储数据,为Kibana的可视化显示提供聚合搜索和数据分析的支撑。
前提条件 每个接入的数据源都要归属到某个集成应用下,在接入数据源前您需要有可用的集成应用,否则请提前创建集成应用。 操作步骤 登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“数据源管理”,单击页面右上角的“接入数据源”。
吐量、低延迟的平台,可以处理大量的实时数据流。Kafka主要由三个部分组成:生产者、消费者和代理服务器。生产者将数据发布到Kafka集群,消费者从Kafka集群订阅数据并进行处理,代理服务器则是Kafka集群中的核心组件,负责处理消息的存储和转发。Kafka的主要优点是可扩展性、
吐量、低延迟的平台,可以处理大量的实时数据流。Kafka主要由三个部分组成:生产者、消费者和代理服务器。生产者将数据发布到Kafka集群,消费者从Kafka集群订阅数据并进行处理,代理服务器则是Kafka集群中的核心组件,负责处理消息的存储和转发。Kafka的主要优点是可扩展性、
”,可查看该时间范围内的日志数据。 在页面左侧的字段列表中选择要查看的日志字段,筛选包含该字段的日志数据。 在页面右侧的“Break down by”处选择日志字段,可查看该字段的聚合统计数据。 父主题: 使用Filebeat+ELK实现Site协同版实例的API日志监控
URL中的域名与证书绑定的域名不一致 URL中的域名与证书绑定的域名修改为一致 400 APIG.3477 The authorizer type and API do not match. 指定的自定义认证类型与API的使用位置不匹配 对不同的API认证位置使用正确类型的自定义认证 400 APIG
策略名称 填写访问控制策略的名称,根据规划自定义。建议您按照一定的命名规则填写访问控制策略名称,方便您快速识别和查找。 类型 选择访问控制策略的限制类型。 IP地址:限制可调用API的IP地址。 账号名:仅适用IAM认证类型的API,限制可用于调用API的账号。 仅支持配置账号名,
max_cpu_time 允许函数API中执行的CPU时间占用的最高时长。单位:毫秒。 60000 ms 1-1000000 ms max_memory 允许函数API中执行的内存大小。单位:字节。 256 M 1-9536 M livedata_env 自定义后端的运行模式,设置为online时
获取API的调用信息 获取API的请求信息 旧版界面:在ROMA Connect实例控制台选择“服务集成 APIC > API管理”,在“API列表”页签中可获取API的“域名”、“请求方法”和“请求路径”。单击API的名称进入API详情页面,在“调用信息”页签下,获取API的“请求协议”和“入参定义”。