检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
下载资产包 功能介绍 导出作业执行成功后,通过该接口获取导出作业产生的资产包,仅能下载一次。 可先压缩后存在数据库,下载后删除。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。
以下操作命令以Linux系统为例进行说明。 解压Kafka命令行工具。 进入文件压缩包所在的目录,然后执行以下命令解压文件。 tar -zxf kafka_tar 其中,kafka_tar为Kafka命令行工具压缩包的名称。 进入Kafka命令行工具的/bin目录下。 注意,Wi
实时:实时将源端产生的数据集成到目标端。 两种集成模式分别所支持的数据源类型请参见接入数据源。 支持自定义数据映射规则 在进行源端到目标端的数据字段转换时,您可以自定义映射规则,例如将源数据的一个数据列复制出相同的多列数据,再集成到目标端。 支持不同网络环境间的数据集成 源端数据与
界主流数据库之间的数据迁移、同步场景,建议使用数据复制服务DRS;对于关系型数据库、大数据、文本等数据迁移到数据湖的场景,建议使用云数据迁移CDM。 表1 接入数据源 数据源接入配置 普通任务支持的集成模式(源端) 普通任务支持的集成模式(目标端) 组合任务支持的集成模式(源端)
部署在VPC下的应用是否可以调用API? 默认部署在VPC下的应用可以调用API。如果域名解析失败,则参考怎样切换内网DNS,在当前终端节点上配置DNS服务器。配置完成后,部署在VPC下的应用可以调用API。 父主题: 服务集成
Hive、MRS HBase和MongoDB的Mapping映射手动输入时,是否区分大小写? Mapping映射时会区分大小写,源端字段、目标端字段都必须和所选择的字段大小写一致。若不一致,MRS Hive和MRS HBase将会运行异常,MongoDB数据库不受影响,运行正常。 父主题: 数据集成普通任务
SQL语法 数据后端与各数据库的SQL语法差异 如果需要把后端服务请求中携带的参数传递给SQL,使用${参数名}的方式传递,其中String类型的参数需要用单引号括起来,int类型的参数则不需要。 如以下示例,name为String类型参数,id为int类型参数。 select *
编排任务,通过可视化UI界面来创建任务,以降低不同经验背景用户的开发门槛。编排任务主要支持以下功能: 通过一个处理器节点实现一个数据源到N个目标端的采集,能够完成1:N场景的数据采集。 任务配置采用拖拽节点的方式实现参数配置,简化流程。 编排模式的数据转换模式分为映射模式和脚本模式。JavaScri
curl SDK使用说明 操作场景 使用curl命令调用APP认证的API时,您需要先下载JavaScript SDK生成curl命令,然后将curl命令复制到命令行调用API。 前提条件 已获取API的调用信息,具体请参见开发准备。 浏览器版本为Chrome 89.0或以上版本。
查询单个任务的日志详情 功能介绍 查询单个任务的所有日志信息。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project_id}/fdi/in
参数 配置说明 后端名称 填写后端的名称,根据规划自定义。建议您按照一定的命名规则填写后端名称,方便您快速识别和查找。 集成应用 选择后端所属的集成应用。若没有可用的集成应用,可单击右侧的“新建集成应用”,创建一个集成应用。 后端请求方法 选择后端的请求方法,可选择“GET”、“P
策略名称 填写访问控制策略的名称,根据规划自定义。建议您按照一定的命名规则填写访问控制策略名称,方便您快速识别和查找。 类型 选择访问控制策略的限制类型。 IP地址:限制可调用API的IP地址。 账号名:仅适用IAM认证类型的API,限制可用于调用API的账号。 仅支持配置账号名,
max_cpu_time 允许函数API中执行的CPU时间占用的最高时长。单位:毫秒。 60000 ms 1-1000000 ms max_memory 允许函数API中执行的内存大小。单位:字节。 256 M 1-9536 M livedata_env 自定义后端的运行模式,设置为online时
导入组合应用 已创建的组合应用资产,可以将组合应用导入到资产中。 登录新版ROMA Connect控制台。 在左侧导航栏选择“资产中心>我的资产”。 单击一个组合应用资产,并切换到“组合应用”页签。 单击搜索框旁的,弹出“添加组合应用资产”弹窗。 勾选需要导入的组合应用。 单击“确定”,完成导入。
Kafka业务迁移指将连接其他Kafka的生产与消费消息的客户端切换成连接ROMA Connect,部分还涉及将持久化的消息文件迁移到ROMA Connect上。 在业务迁移过程中,连续性要求高的业务,需要平滑迁移,不能有长时间的中断。 迁移准备 确保消息生产与消费客户端与ROMA Connect实例的消息集成
确保业务系统所在网络与ROMA Connect的网络互通。 若通过公网互通,ROMA Connect实例需绑定弹性IP。 确保业务系统的数据库为ROMA Connect支持的数据源类型。 函数API支持的数据源请参见服务集成支持的数据源。 准备一个可用的独立域名,用于作为API的访问域名。 确保已完成独
表4 Content 参数 是否必选 参数类型 描述 gauss100_version 否 String gauss100的版本号。 数据源类型为gauss100的时候必填 V100R003C20 V300R001C00 最小长度:1 最大长度:64 host 否 String 主机IP地址。
导入API 已创建的API产品资产,可以将API导入到资产中。 登录新版ROMA Connect控制台。 在左侧导航栏选择“资产中心>我的资产”。 单击一个API产品类型的资产,并切换到“API资产”页签。 单击“导入api”,弹出“添加API资产”弹窗。 选择“从ROMA中导入”或“外部上传”,进行API导入。
填写要连接的pdb数据库名。 编码格式 填写数据库的编码格式。 超时时间 填写连接数据库的超时时间。 用户名 连接数据库的用户名。 密码 连接数据库的用户密码。 描述 填写连接器的描述信息,用于识别不同的连接器。 连接成功后,单击“确定”,保存连接器。 父主题: 定时同步MySQL中的数据到Oracle
填写DAMENG数据库的JDBC格式连接串,格式:jdbc: dm://host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的DAMENG数据库名。 用户名 数据库的登录用户名。 密码 数据库的登录密码。 完成数