检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
接入Kafka数据源 接入MySQL数据源 接入MongoDB数据源 接入MQS数据源 接入MRS Hive数据源 接入MRS HDFS数据源 接入MRS HBase数据源 接入MRS Kafka数据源 接入OBS数据源 接入Oracle数据源 接入PostgreSQL数据源 接入Redis数据源
c,元素d的解析路径需设置为a.b.d。 数据根字段设置为a 元数据的解析路径从元素a的下层路径开始。元素c的解析路径需要设置为b.c,元素d的解析路径需设置为b.d。 数据根字段设置为a.b 元数据的解析路径从元素b的下层路径开始。元素c的解析路径需要设置为c,元素d的解析路径需设置为d。
FDI通过公网对接其他租户的MRS HIVE如何配置? 首先需要将MRS的IP全部绑定EIP,然后在MRS配置文件中的私网IP全部替换成EIP,再到hdfs-site.xml文件中添加一个配置项“dfs.client.use.datanode.hostname”,值设为“true”。
{hostname}为数据库的连接地址。 {port}为数据库的连接端口号。 用户名 填写连接数据库的用户名。 密码 填写连接数据库的用户密码。 完成数据源接入配置后,单击“开始检测”,检测ROMA Connect与数据源之间是否能够连通。 若测试结果为“数据源连接成功!”,则继续下一步。
用户名 填写连接数据库的用户名。 密码 填写连接数据库的用户密码。 认证源 填写用于接入认证的MongoDB数据库名,即使用MongoDB的哪个数据库对接入用户进行认证。不填写则默认使用当前要接入的数据库对用户进行认证。 数据库名 填写要接入的数据库名。 集群模式 要接入的MongoDB数据库是否为集群模式。
timeout:读取超时时间,最大值为30000毫秒,建议timeout设置值小于前端API的“后端超时”时间值 maxItems:读取消息的最大数量 返回信息 Kafka已消费的消息数组,消息数组即将多条消息的内容组成一个数组 父主题: 自定义后端开发(函数后端)
创建数据字典 概述 数据字典可以将系统数据库的关键值开放给用户使用。数据字典中的DEVICE_TYPE为默认数据字典,用户也可自定义创建数据字典。 约束与限制 子服务中包含“设备集成 LINK”的实例才可以在“实例信息”页面显示“数据字典”页签,如果实例中包括“消息集成 MQS”、“数据集成
我的资产 创建资产 导入API 导入组合应用 创建凭证 父主题: 资产中心
配置API的凭据配额控制 凭据配额可限制单位时间内凭据调用API的总次数,保护后端服务。您可以创建凭据配额策略,对绑定策略的凭据进行调用次数限制。 凭据配额策略和凭据本身是相互独立的,只有将凭据绑定凭据配额策略后,凭据配额策略才对凭据生效。 约束与限制 同一个凭据只能绑定一个凭据
查询指定任务的调度信息总览 功能介绍 查询指定任务的调度信息总览。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project_id}/fdi/
型数据元素。 别名:对元数据的自定义名称。 类型:元数据的数据类型,需要与响应消息中对应参数的数据类型一致。 解析路径:元数据的完整路径中,不包含数据根字段的路径部分,具体请参见元数据解析路径配置说明。 元数据解析路径配置说明: JSON/XML格式数据中不含数组 如以下JSON
怎样保证API对应的后端服务器的安全? 通过以下方法确保API的后端服务器的安全: 为API绑定签名密钥。在绑定签名密钥后,APIC到后端服务的请求增加签名信息,后端服务收到请求后计算签名信息,验证计算后的签名信息与APIC的签名信息是否一致。 使用HTTPS对请求进行加密。使用
在页面中单击流控策略的名称,进入策略详情页面。 在“特殊凭据”页签下,单击“添加特殊应用”。 在添加特殊应用弹窗中配置应用相关信息。 表2 特殊应用配置 参数 说明 选择应用 选择集成应用的类型。 已有应用:用户自己创建的集成应用。 其他:其他用户创建的集成应用,需要填写当前实例下其他用户创建的集成应用ID。
配置API的凭据访问控制 凭据访问控制可控制访问API的凭据IP地址,保护后端服务。您可以为凭据设置访问控制策略,允许/禁止某个IP地址的凭据访问API。 操作步骤 登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“服务集成
数据同步验证 连接Mysql数据源,在源端数据表中插入一条数据。 连接Oracle数据源,根据定时器设置的同步时间间隔等待一分钟,在目标端数据表中查看源端插入的数据是否已同步到Oracle。 父主题: 定时同步MySQL中的数据到Oracle
OPENGAUSS:GaussDB数据源 MYSQL:MySQL数据源 ORACLE:Oracle数据源 POSTGRESQL:PostgreSQL数据源 SQLSERVER:SQL Server数据源 TAURUS:GAUSSDB(FOR MYSQL)数据源 DIS:DIS数据源 DWS:DWS数据源 HIVE:HIVE数据源
Mysql到Mysql的定时任务,源端有类型为tinyint(1),值为2的字段,但是采集到目标端值就变成了1 原因分析 Mysql驱动自动识别tinyint(1)为bit类型,所以目标端的值都变成了1。 解决方案 修改数据源配置,连接与安全配置项选择“专业”模式,在字符串最后加
在DWS磁盘空间达到阈值,例如80%,或者某些大数据量的表存在数据倾斜时,DWS集群会变为只读状态。从FDI侧来看,在某个时间点,所有访问DWS的任务均异常停止。 解决方案 处理DWS只读状态问题,恢复数据库服务后,如果FDI的任务停止时间没有超过6小时,可以直接启动任务。如果已经超过6小时,通道内的数据已经过期,需
1.0、2.7,您可以在ROMA Connect实例控制台的“实例信息”页面,在“MQS基本信息”下查看Kafka版本信息。Java开源客户端的版本使用请参见客户端版本使用建议。 根据实例的Kafka版本信息使用对应版本的客户端,此处以2.7.2版本客户端为例进行说明。 <dependency>
接入数据源 概述 在创建采集任务之前,您需要先接入数据源,确保可以正常从数据源采集模型。根据数据源类型的不同,数据源的接入配置有所差异。 操作步骤 接入DWS数据源 接入GaussDB数据源 接入FI Hive数据源 接入MySQL数据源 接入MongoDB数据源 接入MRS Hive数据源