检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用根据连接器名称首字母生成的标准图标。 连接器名称 填写连接器的名称。 标签 填写连接器的标签。 类别 选择连接器的类别。 HTTP 数据库 华为云服务 SaaS应用 邮箱 其他 消息系统 描述 填写连接器的描述信息,用于识别不同的连接器。 单击“创建并配置详情”,进入连接器的动作配置页面。
查询topic的磁盘存储情况 功能介绍 查询topic在Broker上磁盘占用情况。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project
Connect提供的SDK,对API请求进行签名处理。 自定义后端开发:用户在使用服务集成APIC的自定义后端创建函数后端和数据后端时,涉及函数脚本或数据库执行语句的编写开发。 函数后端:创建函数后端时需要编写函数脚本,进行函数功能开发,ROMA Connect提供了部分Java类函数供用户直接使用。
对象存储服务 对象存储服务连接器用于对接华为云对象存储服务。 对象存储服务(Object Storage Service,简称OBS)是一个基于对象的海量存储服务,为您提供海量、安全、高可靠、低成本的数据存储能力。 创建对象存储服务连接 登录新版ROMA Connect控制台。
检查创建实例请求中的可用区。 400 ROMA.5008000 The database connection is abnormal. 数据库连接异常。 检查数据库连接地址或数据库服务。 400 ROMA.5008020 Failed to unbind the EIP. 解绑EIP失败,请稍后重试。
任务标签 添加任务标签,用来对任务进行分类,方便用户快速查询。可选择已有的标签进行关联,如果没有可单击添加按钮,添加新标签,新标签会在任务保存时被保存,再创建任务时可直接搜索该标签。 企业项目 选择对应的企业项目,可将任务和企业项目关联。仅企业账号可见此配置项。 完成基本信息配置后,继续进行下一部分配置。
dameng数据源类型(tag:hcs) opengauss : opengauss数据源类型(tag:hcs) type String 脚本类型 SQL:sql语句 SP:存储过程 object_name String 返回对象。 最小长度:1 最大长度:32 content String API脚本内容 请对脚本进行base64编码
dameng数据源类型(tag:hcs) opengauss : opengauss数据源类型(tag:hcs) type String 脚本类型 SQL:sql语句 SP:存储过程 object_name String 返回对象。 最小长度:1 最大长度:32 content String API脚本内容 请对脚本进行base64编码
mrshive: mrshive数据源类型(tag:Site_hybrid) type String 脚本类型 SQL:SQL语句 SP:存储过程 object_name String 返回对象。 最小长度:1 最大长度:32 content String API脚本内容 请对脚本进行base64编码
mrshive: mrshive数据源类型(tag:Site_hybrid) type String 脚本类型 SQL:SQL语句 SP:存储过程 object_name String 返回对象。 最小长度:1 最大长度:32 content String API脚本内容 请对脚本进行base64编码
dameng数据源类型(tag:hcs) opengauss : opengauss数据源类型(tag:hcs) type String 脚本类型 SQL:sql语句 SP:存储过程 object_name String 返回对象。 最小长度:1 最大长度:32 content String API脚本内容 请对脚本进行base64编码
mrshive: mrshive数据源类型(tag:Site_hybrid) type String 脚本类型 SQL:SQL语句 SP:存储过程 object_name String 返回对象。 最小长度:1 最大长度:32 content String API脚本内容 请对脚本进行base64编码
gw_address_protocol:函数脚本中,通过DICT:gw_rest_float_addr字段传递的默认请求协议。 procedure_async:存储过程是否使用异步方式执行。 dataapi_return_type:数据后端的返回格式。 backend_client_certificate
在“Delete phase”处设置数据的过期时间“Move data into phase when”。 单击“Save policy”保存策略。 创建索引模板 在页面左上角单击“”,然后选择“Management > Stack Management > Index Management”。
若使用Excel工具编辑导入文件,在编辑完成后需要按如下操作保存。 在Excel中保存时,以另存的方式保存为“CSV(逗号分隔)(*.csv)”类型文件。 使用文本编辑器打开1中保存的csv格式文件,并再次另存,另存时编码选择“带有 BOM 的 UTF-8”,保存后即得到最终的csv格式导入文件。 导入规则
据源。 Topic名称 选择步骤一:准备数据源中记录的Topic。 Key 为简单起见,此处不设置。 任务执行后完成配置保持默认。 单击“保存”,完成数据集成任务的创建。然后单击“返回任务列表”,在任务列表中可以查看刚创建的数据集成任务。 步骤四:启动数据集成任务 数据集成任务创
数据源所在任务位置。 SOURCE 数据源处于任务源端 TARGET 数据源处于任务目标端 最小长度:0 最大长度:6 db_name 否 String 数据库名称,只支持MRSHIVE类型的数据源。 最小长度:0 最大长度:64 table_name 是 String 字段所在的表名。 最小长度:0
若使用Excel工具编辑导入文件,在编辑完成后需要按如下操作保存。 在Excel中保存时,以另存的方式保存为“CSV(逗号分隔)(*.csv)”类型文件。 使用文本编辑器打开1中保存的csv格式文件,并再次另存,另存时编码选择“带有 BOM 的 UTF-8”,保存后即得到最终的csv格式导入文件。 导入产品
Connect支持两种数据集成任务: 数据集成任务(普通任务):普通数据集成任务,有定时任务和实时任务两种集成模式,支持所有默认类型的数据源,对于数据库类型数据源,只支持单数据表的集成。 - 定时任务:根据制定的任务计划,定时获取源端数据并集成到目标端。 - 实时任务:实时将源端产生的数据集成到目标端。
若使用文件默认目录,可填写“hdfs:///hacluster”,需要用户具有管理员权限。 若使用用户规划的目录,可填写具体目录。 若使用用户数据库目录,如“/user/hdfs/testdb”,需要用户具有对应目录的权限。 机机交互用户名 填写连接MRS HDFS的机机类型用户名。 上传配置文件