检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
na。 docker restart logstash docker restart kibana 父主题: 使用Filebeat+ELK实现Site协同版实例的API日志监控
< kibana_image.tar docker load < python_image.tar 父主题: 使用Filebeat+ELK实现Site协同版实例的API日志监控
APIC如何对流量进行控制? 您可以通过流控策略控制单位时间内API被访问的次数,保护后端服务,详情请参考流量控制。 默认的流控策略是单个API的访问不超过6000次/秒,如果您未创建流控策略,APIC会执行默认流控策略。您可以在ROMA Connect实例控制台“实例信息”页面
immediate; startup mount; alter database archivelog; alter database open; 执行以下命令,确认日志归档是否已成功开启。 archive log list; 当回显打印“Database log mode: Archive Mode”,说明日志归档已开启。
immediate; startup mount; alter database archivelog; alter database open; 执行以下命令,确认日志归档是否已成功开启。 archive log list; 当回显打印“Database log mode: Archive Mode”,说明日志归档已开启。
接入FI Hive数据源 接入MySQL数据源 接入MongoDB数据源 接入MRS Hive数据源 接入MRS HBase数据源 接入FI HBase数据源 接入Oracle数据源 接入SQL Server数据源 接入DAMENG数据源 接入POSTGRESQL数据源 接入SFTP数据源
CDC(Change Data Capture),即数据变更抓取,通过为源端数据源开启CDC,ROMA Connect可实现数据源的实时数据同步以及数据表的物理删除同步。 本章节主要介绍如何为SQL Server数据库开启CDC功能。 约束与限制 若SQL Server数据库为主从模式,不支持使用SQL
目的端数据格式选择“MySQL”,在选择表名后,目的端数据源页签会自动生成数据库表中的字段。 以下面的组合应用为例,该组合应用的主要功能是调用Open API获取OBS指定桶的对象列表,并将结果中的桶名称和对象名称通过数据映射,映射到MySql指定表中的相关字段,然后使用MySql添加记录的
消息将转发到新队列。 队列名称 填写要获取数据的消息队列名称。 若“是否创建新队列”选择“是”,则自定义一个新的队列名称。 若“是否创建新队列”选择“否”,则填写RabbitMQ数据源中已有队列的名称,并确保该队列已存在。 自动删除 当没有客户端连接队列时,队列是否自动删除。 持久化
设备轻松接入云端,进行消息的发布和订阅。 实现设备与后端各应用的消息互通 用户可以在控制台配置规则引擎实现设备与其他设备、后端、其他云服务的消息互通。 LINK支持规则引擎转发数据到消息集成MQS。第三方服务通过MQS服务获取数据,实现设备与第三方服务的异步消息通信。 支持海量设备低延时接入
0-SNAPSHOT.jar & 以MQS数据源作为源端,MySQL作为目标端为例创建实时任务。 参考创建数据集成任务(普通任务)接入源端MQS数据源和目标端MySQL数据源,并创建实时任务。完成后运行任务,可以将源端MQS数据源中的数据,迁移到MySQL数据源的表中。 父主题: 数据集成开发指导
存储过程调用 当前数据API不支持直接创建存储过程,但是可以执行MySQL、Oracle、PostgreSQL这三种数据源的存储过程,以Oracle数据库为例说明。 数据源说明 假设数据库里面有一张表,表结构如下建表语句所示: create table sp_test(id number
Hive MRS 3.*.* MRS Kafka MRS 3.*.* MySQL 5.7、8.0 OBS 3 Oracle 11.2g(不推荐)、12.1g(不推荐)、12.2g、19c PostgreSQL 11 RabbitMQ 3.6.10 RocketMQ 4.8.0 Redis
C对等连接,将两个VPC的网络打通,实现同一区域跨VPC访问数据源。具体步骤请参考VPC对等连接说明。 若ROMA Connect实例与数据源在不同区域的不同VPC内时,可通过创建云连接实例并加载需要互通的VPC,将两个VPC的网络打通,实现跨区域跨VPC访问数据源。具体步骤请参考跨区域VPC互通。
接入数据源。 配置ROMA Connect接入业务系统的数据库,确保可以正常从数据库读取和写入数据。 不同类型数据源的接入配置不同,此处以Kafka作为源端数据库,MySQL作为目标端数据库为例进行说明,其他类型数据库请参考接入数据源。 接入源端Kafka数据源: 在左侧的导航
C对等连接,将两个VPC的网络打通,实现同一区域跨VPC访问数据源。具体步骤请参考VPC对等连接说明。 若ROMA Connect实例与数据源在不同区域的不同VPC内时,可通过创建云连接实例并加载需要互通的VPC,将两个VPC的网络打通,实现跨区域跨VPC访问数据源。具体步骤请参考跨区域VPC互通。
个数据列复制出相同的多列数据,再集成到目标端。 支持不同网络环境间的数据集成 源端数据与目标端数据可以分别在不互通的两个网络环境中。例如源端数据在本地数据中心,目标端数据在云上VPC内,两者网络不互通,但FDI既能访问云上VPC内的数据源,也能访问本地数据中心的数据源,实现不同网络环境间的数据集成。
选择2中所配置的MySQL数据源。 目标端表 选择MySQL数据库中集成数据要写入的数据表。 选择数据表后,单击“选择表字段”,选择车位感应设备信息和车位状态信息要写入数据库的列字段。 批次号字段 此处不设置。 配置MQS到MySQL的数据映射规则。 单击“自动Mapping”,自动建
Connect实例作为企业内的业务开放中台。所有的子公司或部门都调用业务开放中台的API来获取共享的数字资产,实现了调用入口的统一,认证信息的统一,提升了数字资产的共享效率,降低共享难度。 本章节介绍如何通过服务集成的API级联能力,把子公司A和子公司B ROMA Connect实例的API级联到公司总部的ROMA
C对等连接,将两个VPC的网络打通,实现同一区域跨VPC访问数据源。具体步骤请参考VPC对等连接说明。 若ROMA Connect实例与数据源在不同区域的不同VPC内时,可通过创建云连接实例并加载需要互通的VPC,将两个VPC的网络打通,实现跨区域跨VPC访问数据源。具体步骤请参考跨区域VPC互通。