检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
集群实例创建完成后,在左侧的导航栏选择“应用业务模型ABM > 模型采集 > 数据源”,单击“新增数据源”, 选择数据源类型为“自定义数据”,扩展ABM集群选择之前创建的集群实例,第三方采集器选择注册节点C的扩展采集器,填写数据源基本信息,新增自定义数据源。 自定义数据源创建完成后,在左侧的导航栏选择“应用业务模型ABM
Hive目标端写入时出现数据乱码 原因分析 创建任务时,目标端存储类型选择与建表时类型不一致。 比如建表时存储类型为text(文本文件),而创建任务时目标端存储类型选择了RCFile格式。 解决方案 修改界面选择的存储类型与建表时一致即可。 父主题: 数据集成任务
保持默认设置。 配置返回结果的响应示例,为简单起见,此处保持默认设置。 完成后单击“完成”。 API创建成功后,自动跳转到API运行页面,可查看API的详细信息。 调试API 在API运行页面左侧选择创建自定义认证的API中创建的API,然后在页面右上角单击“调试”。 在调试界面中
Kafka是一个分布式流处理平台,最初由LinkedIn开发。它是一个高吞吐量、低延迟的平台,可以处理大量的实时数据流。Kafka主要由三个部分组成:生产者、消费者和代理服务器。生产者将数据发布到Kafka集群,消费者从Kafka集群订阅数据并进行处理,代理服务器则是Kafka集群中的核心组件,负责处理消息的存储和转
接入DWS数据源 接入Gauss100数据源 接入HANA数据源 接入HIVE数据源 接入MongoDB数据源 接入MySQL数据源 接入Oracle数据源 接入PostgreSQL数据源 接入Redis数据源 接入SQL Server数据源 父主题: 创建并开放数据API
"col_seq":{ "index_0":"源表字段1", "index_1":"源表字段2", "index_2":"源表字段3" } } 父主题: 数据集成普通任务
ms)”与“重试次数”相乘的值大于30秒,则调试API会超时。 操作步骤 登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“服务集成 APIC > API管理”,在“API列表”页签中单击API右侧的“更多 > 调试”。
钉钉 钉钉连接器用于实现在工作流中通过配置操作钉钉相关功能。 钉钉(Ding Talk)是阿里巴巴集团打造的企业级智能移动办公平台,是数字经济时代的企业组织协同办公和应用开发平台。 创建钉钉连接 登录新版ROMA Connect控制台。 在左侧导航栏选择“连接器”,在连接器页面单击“新建连接”。
y和Secret进行API请求的安全认证。 创建并开放数据API 接入数据源 接入数据源,确保可以正常从数据源读取数据。 创建数据后端 把数据源定义为后端服务,实现从数据源中读写数据。 发布数据API 发布数据后端,生成数据API,并对外开放。 绑定域名 在开放API前,您需要为
数据源 数据源连接测试失败排查操作 MRS Hive数据源测试连接失败 FTP数据源测试连接失败 OBS数据源测试连接失败 Kafka数据源连接失败
消息通知 消息通知服务连接器用于对接华为云消息通知服务,可以依据用户的需求主动推送通知消息,最终用户可以通过短信、电子邮件、应用等方式接收通知信息。 创建消息通知连接 登录新版ROMA Connect控制台。 在左侧导航栏选择“连接器”,在连接器页面单击“新建连接”。 选择“消息通知服务”连接器。
数据源管理 ROMA Connect支持的数据源 接入API数据源 接入ActiveMQ数据源 接入ArtemisMQ数据源 接入DB2数据源 接入DIS数据源 接入DWS数据源 接入DM数据源 接入Gauss100数据源 接入FTP数据源 接入HL7数据源 接入HANA数据源 接入HIVE数据源
数据集成指导 业务使用介绍 接入数据源 创建数据集成任务(普通任务) 创建数据集成任务(组合任务) 创建数据集成任务(编排任务) 启停数据集成任务 数据集成任务管理 连接器
SAP是否支持分页读取视图? SAP支持读取视图,但可能存在数据重复或丢失的问题。因为SAP读取视图会调用/SAPDS/RFC_READ_TABLE2函数,该函数到SAP读取视图时会导致分页错乱。 父主题: 数据集成普通任务
权给指定集成应用,用户使用集成应用的Key和Secret进行API请求的安全认证。 创建并开放数据API 接入数据源 接入数据源,确保可以正常从数据源读取数据。 创建数据API 把数据源定义为API,并对外开放。 配置API授权(可选) 仅使用APP认证方式的API,才需要配置调
扩展采集器可以支持同一网段内本地ABM服务采集远端服务模型数据,增强扩展能力。扩展采集器提供远端服务注册采集器能力,比如支持用户注册技术模型采集器,结合自定义数据源,可以采集远端服务的技术模型,在模型地图中进行检索。注册业务模型采集器,结合自定义数据源,可以采集远端服务的业务模型,在模型地图中进行检索。
le、PostgreSQL/openGauss、SQL Server、GaussDB(for MySQL)数据源支持清空目标表,其他数据源不支持清空表操作。 父主题: 数据集成普通任务
Kafka到Mysql的实时任务时,MQS中的Topic下有数据,但是FDI任务没有采集到数据。 原因分析 数据源配置的不是本实例下的MQS地址,所以本实例下的MQS中虽然有消息,但是FDI任务采集不到数据。 解决方案 检查任务配置与数据源配置,修改数据源配置为正确的MQS地址。 父主题: 数据集成任务
数据集成任务 MRS Hive目标端写入时出现数据乱码 MRS Hive写入时数据全部写在第一个字段里 目标端任务报任务运行超时 MySQL到MRS Hive时目标端报“could only be written to 0 of the 1 minReplication nodes
数据集成 数据集成普通任务 数据集成组合任务