正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
接入FI Hive数据源 接入MySQL数据源 接入MongoDB数据源 接入MRS Hive数据源 接入MRS HBase数据源 接入FI HBase数据源 接入Oracle数据源 接入SQL Server数据源 接入DAMENG数据源 接入POSTGRESQL数据源 接入SFTP数据源
配置数据转发规则 概述 规则引擎可以订阅设备Topic,获取设备上报的数据,然后将解析过的数据发送到其他云服务供其使用。例如,用户可制定规则,命令设备每小时上报一次设备温度,如果设备温度超出正常范围,则关闭该设备,给用户发送告警信息;LINK将收集到的数据传输到大数据分析平台,评估其他设备发生故障的风险。
"enterprise_project_id" : "0", "source_datasource_type" : "MYSQL", "target_datasource_type" : "MYSQL", "source_instance_name" : "roma-z00617033-not-delete"
oracle:oracle数据源类型 mysql:mysql数据源类型 mongodb:mongodb数据源类型 redis:redis数据源类型 postgresql:postgresql/opengauss数据源类型 hive:hive数据源类型 mssql:sqlserver数据源类型 sql
连接模式 选择数据库的连接方式。 默认:使用系统默认方式连接数据库。 专业:使用JDBC方式连接数据库。 连接地址 仅当“连接模式”选择“默认”时需要配置。 填写数据库的连接IP地址和端口号。 数据库名 仅当“连接模式”选择“默认”时需要配置。 填写要接入的数据库名。 连接字符串
消息大小:512byte 消息目的端:MQS Topic 数据集成规格在以下条件中测试得出: 分别执行以下三个任务场景,每个场景3个并发任务: mysql-mysql任务场景 obs-obs任务场景 kafka-kafka任务场景 读写100W数据 数据迁移量1G 服务集成规格在以下条件中测试得出:
Hive”。 数据源名称 选择接入数据源中已配置的MRS Hive数据源。 目标端数据库名 选择待集成数据要写入的数据库。 说明: 需要使用自建的数据库,不能使用MRS Hive自带的default数据库。 目标端表 选择待集成数据要写入的数据表。 分隔符 填写MRS Hive数据源
总任务数 统计此实例下当前存在的FDI任务总数,不区分运行状态。 如果项目已经进入稳定运行阶段,任务数相对固定,不会频繁的增删任务时,希望在发生误删除任务的情况时能第一时间告警,可以配置此指标监控。 ≥0 单位:个 实例 5分钟 data_size 数据大小 统计上一个统计周期内,此实例下所有任务累计写入数据的总大小。
oracle:oracle数据源类型 mysql:mysql数据源类型 mongodb:mongodb数据源类型 redis:redis数据源类型 postgresql:postgresql/opengauss数据源类型 hive:hive数据源类型 mssql:sqlserver数据源类型 sql
ServiceName={ServiceName }。 host为数据库的连接地址。 port为数据库的连接端口号。 ServiceName为要接入的MongoDB数据库名。 用户名 数据库的登录用户名。 密码 数据库的登录密码。 完成数据源接入配置后,单击“测试连接”,检测ABM与数据源之间是否能够连通。
{servicename})))。 {hostname}为数据库的连接地址。 {port}为数据库的连接端口号。 {servicename}为要接入的Oracle数据库服务名。 用户名 数据库的登录用户名。 密码 数据库的登录密码。 完成数据源接入配置后,单击“测试连接”,检测ABM与数据源之间是否能够连通。
SYBASEIQ数据库的JDBC格式连接串,格式:jdbc:sybase:Tds://host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的SYBASEIQ数据库名。 用户名 数据库的登录用户名。 密码 数据库的登录密码。
HANADB数据库的JDBC格式连接串,格式:jdbc: jdbc:sap://host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的HANADB数据库名。 用户名 数据库的登录用户名。 密码 数据库的登录密码。
String 源端数据库模式,gauss100数据库使用。 sourceSelectedColumnList 否 List<Column> 源端选择的字段名列表,关系型数据库使用。 orderColumn 否 String 源端排序的字段名,可为空,关系型数据库使用。 orderType
填写服务器的IP地址和端口,格式为:ldap://ip:port。 ip为数据库的访问地址。 port为数据库的访问端口。 安全认证类型 数据库的安全认证类型,目前仅支持“Simple”。 用户名 数据库的登录用户名。 密码 数据库的登录密码。 数据源的接入配置示例如下图所示。 图1 LDAP数据源配置示例
接入DM数据源 接入Gauss100数据源 接入HANA数据源 接入HIVE数据源 接入MongoDB数据源 接入MySQL数据源 接入Oracle数据源 接入PostgreSQL数据源 接入Redis数据源 接入SQL Server数据源 父主题: 开放数据API
String 源端数据库模式,gauss100数据库使用。 source_selected_column_list 否 List<Column> 源端选择的字段名列表,关系型数据库使用。 order_column 否 String 源端排序的字段名,可为空,关系型数据库使用。 order_type
数组长度:1 - 9999 表4 ext_info 参数 是否必选 参数类型 描述 server_id 否 String MySQL的serverId。数据源为MySQL时,ServerID必填。 最小长度:1 最大长度:20 表5 MultiTaskColumnInfo 参数 是否必选
数组长度:1 - 9999 表4 ext_info 参数 是否必选 参数类型 描述 server_id 否 String MySQL的serverId。数据源为MySQL时,ServerID必填。 最小长度:1 最大长度:20 表5 MultiTaskColumnInfo 参数 是否必选
填写HIVE的JDBC格式连接串,例如:jdbc:hive2:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传FI Hive配置文件。配置文件获取请参考获取FI