检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
接入数据源 概述 在创建采集任务之前,您需要先接入数据源,确保可以正常从数据源采集模型。根据数据源类型的不同,数据源的接入配置有所差异。 操作步骤 接入DWS数据源 接入GaussDB数据源 接入FI Hive数据源 接入MySQL数据源 接入MongoDB数据源 接入MRS Hive数据源
> 模型地图”,单击右上角“标注配置”。 选择“标注任务”页签,单击“创建标注任务”按钮,配置任务信息。 表3 标注任务配置 参数 配置说明 任务名称 填写标注任务名称,例如,季度营业额。 描述 填写对此任务的描述信息。 任务类型 重建标注:删除实例上所选择的标注,重新给符合规则的实例打上所选择的标注。
扩展采集器创建完成后,选择自定义数据源。 选择自定义数据源后,在左侧的导航栏选择“应用业务模型ABM > 模型采集 > 采集任务”,单击“创建采集任务”,配置采集任务信息,创建采集任务,单击执行。采集任务执行成功后,采集到的模型数据可以在模型地图中进行检索。 父主题: 采集技术模型
Connect的资产导入功能,把获取到的集成资产包快速导入ROMA Connect实例。 前提条件 已获取集成资产包。 在资产迁移场景,已修改实例配置参数。 操作步骤 在实例控制台的“实例信息”页面,单击右上角的“导入资产”。 在“导入资产”弹窗中根据实际情况选择“新增导入”或“覆盖导入”。 资产恢复场景,选择“覆盖导入”。
只有定时任务且use_quartz_cron为false时才有该属性。 最小值:1 最大值:60 position String 标识最近一次任务执行到哪一个阶段: ADAPTER(任务处于初始化阶段) READER(任务正在执行Reader读操作) WRITER(任务正在执行Writer写操作)
HBase作为一个数据源,并用于数据集成任务。在使用MRS HBase数据源前,您需要先接入数据源。 若两个数据集成任务分别使用了不同版本的MRS数据源(包含MRS Hive、MRS HDFS和MRS HBase),且该MRS数据源均开启了Kerberos认证,则这两个数据集成任务不能同时运行,否则会导致集成任务运行失败。
String 部署到前端的api归属的应用编号,与后端归属的应用编号保持一致 响应参数 状态码: 200 表4 响应Body参数 参数 参数类型 描述 id String 部署的编号 ld_api_id String 部署的后端API编号 group_id String 部署的前端API分组编号
删除指定任务 功能介绍 通过任务ID删除指定任务。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI DELETE /v2/{project_id}/fdi/insta
修改数据源配置 概述 数据源的连接信息包括地址、账号和密码,为非资产数据,在导入集成资产后需要重新配置。 前提条件 已完成集成资产的导入。 操作步骤 在实例控制台的“数据源管理”页面,单击数据源右侧的“编辑”。 在编辑数据源页面修改数据源的连接信息配置。 对于资产恢复场景,修改密码配置。
String 部署的编号 ld_api_id String 部署的后端API编号 group_id String 部署的前端API分组编号 env_id String 部署的环境编号 api_id String 部署的前端API编号 deploy_time String 部署时间 api_definition
机器学习,理解用户输入的集成业务需求,匹配系统支持的触发器、连接器和数据处理器,生成组合应用。可以对生成的组合应用进一步配置和编排,最后构建,部署上线。 操作步骤 登录新版ROMA Connect控制台。 在“工作台”页单击“智能助手”,弹出“智能助手”窗口。 在输入框输入想创建的组合应用描
er-Compose)部署Filebeat和ELK。 前提条件 准备一台可连接公网的本地PC,系统为Linux,用于拉取Docker镜像。 已根据资源规划,完成服务器资源的准备,且ELK所部署的服务器与APIC的SHUBAO组件所在节点网络互通。 操作步骤 确认SHUBAO组件所在节点。
String 实例ID。 最小长度:1 最大长度:64 task_id 是 String 任务唯一标识,任务的ID。 最小长度:1 最大长度:64 mapping_id 是 String 组合任务映射唯一标识。 最小长度:1 最大长度:64 请求参数 表2 请求Header参数 参数
缺省值:TARGET_GROUP1 最大长度:64 task_id 否 String 任务唯一标识,任务ID。 最小长度:0 最大长度:64 ext_info 否 String 额外标识。 task_type 否 Integer 1:实时任务,2:定时任务。 mapping_prefix 否 String 映射
重置组合任务进度 功能介绍 重置组合任务进度。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{project_id}/fdi/instances
部署Filebeat和ELK 部署Filebeat 登录SHUBAO组件所在节点,切换root用户。 执行以下命令对filebeat.yml文件进行授权。 cd /filebeat sudo chown root filebeat.yml 执行以下命令启动Filebeat。 docker-compose
便实时获取设备最新状态信息。 前提条件 已有可用的Topic,且Topic与设备在同一应用下,用于接收消息,否则请提前创建Topic。 操作步骤 登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“设备集成 LINK
Kafka到Mysql的实时任务时,MQS中的Topic下有数据,但是FDI任务没有采集到数据。 原因分析 数据源配置的不是本实例下的MQS地址,所以本实例下的MQS中虽然有消息,但是FDI任务采集不到数据。 解决方案 检查任务配置与数据源配置,修改数据源配置为正确的MQS地址。
初始化组合任务 功能介绍 初始化组合任务,分配任务ID,初始化映射等。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{project_id}/f
HDFS作为一个数据源,并用于数据集成任务。在使用MRS HDFS数据源前,您需要先接入数据源。 若两个数据集成任务分别使用了不同版本的MRS数据源(包含MRS Hive、MRS HDFS和MRS HBase),且该MRS数据源均开启了Kerberos认证,则这两个数据集成任务不能同时运行,否则会导致集成任务运行失败。