检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
导入API 已创建的API产品资产,可以将API导入到资产中。 登录新版ROMA Connect控制台。 在左侧导航栏选择“资产中心>我的资产”。 单击一个API产品类型的资产,并切换到“API资产”页签。 单击“导入api”,弹出“添加API资产”弹窗。 选择“从ROMA中导入”或“外部上传”,进行API导入。
功能介绍 绑定插件到API上。 只能选择发布状态的API 绑定以后及时生效 修改插件后及时生效 相同类型的插件只能绑定一个,原来已经绑定的同类型插件,会直接覆盖。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。
功能介绍 绑定插件到API上。 只能选择发布状态的API 绑定以后及时生效 修改插件后及时生效 相同类型的插件只能绑定一个,原来已经绑定的同类型插件,会直接覆盖。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。
String 后端服务器组名称。为后端服务地址选择服务器组,便于统一修改对应服务器组的后端地址。 status Integer 后端服务器状态 1:可用 2:不可用 port Integer 后端服务器端口 最小值:0 最大值:65535 ecs_id String 后端云服务器的编号。
member_group_weight Integer VPC通道后端服务器组权重值。 当前服务器组存在服务器且此权重值存在时,自动使用此权重值分配权重。 最小值:0 最大值:100 dict_code String VPC通道后端服务器组的字典编码 支持英文,数字,特殊字符(-_.) 暂不支持 最小长度:3
登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“数据源管理”,单击页面右上角的“接入数据源”。 在接入数据源页面的“默认数据源”页签下,选择“MRS Kafka”类型的数据源,然后单击“下一步”。 在页面中配置数据源的连接信息。
One or more tasks do not exist. 一个或多个任务不存在。 检查任务是否存在。 400 FDI.3022 One or more tasks have empty task IDs. 一个或多个任务具有空的任务ID。 确认task_id是否存在。 400 FDI
创建环境 功能介绍 在实际的生产中,API提供者可能有多个环境,如开发环境、测试环境、生产环境等,用户可以自由将API发布到某个环境,供调用者调用。 对于不同的环境,API的版本、请求地址甚至于包括请求消息等均有可能不同。如:某个API,v1.0的版本为稳定版本,发布到了生产环境
root filebeat.yml 执行以下命令启动Filebeat。 docker-compose up -d 部署ELK 登录ELK所部署的服务器,切换root用户。 执行以下命令启动ELK。 cd /ELK docker-compose up -d 执行以下命令,判断ElasticSearch是否启动成功。
所有需手动续费的资源都可归置到“手动续费项”页签,具体操作请参见如何恢复为手动续费。 手动续费资源。 单个续费:在资源页面找到需要续费的资源,单击操作列的“续费”。 批量续费:在资源页面勾选需要续费的资源(可同时勾选多个实例),单击列表左上角的“批量续费”。 选择实例的续费时长,判断是否勾选“统一到期日”。确认配置费用后单击“去支付”。
据库类型数据源,只支持源端一个数据表到目标端一个数据表的集成同步。 创建数据集成任务(组合任务):组合任务,通过CDC(Change Data Capture,数据变更抓取)实现源端到目标端数据的实时同步及增量同步,支持一个源端多个数据表到一个目标端多个数据表的集成同步。当前支持Oracle、MySQL、SQL
间灵活、快速的数据集成和转换,成为企业数字化转型所面临的重要问题。 比如企业中不同业务系统数据的存储格式、存储位置各不相同,当一个业务系统需要获取另一个业务系统的某些数据时,就会出现获取的数据内容不符合要求,无法直接与自己数据结合使用等问题,不同业务系统间的数据共用难度大,效率低,影响业务发展。
未发布RELEASE环境的API包括未发布的API和发布在非RELEASE环境的API,为非资产数据。 资产导入后根据需要重新创建和发布API。 API的环境类信息 API的环境类信息包括独立域名、环境变量、负载通道的云服务器信息、非默认的环境,为非资产数据。 资产导入后需重新配置环境类信息。
(由部署的用户服务器地址决定)。 图3 发布连接器 接入自定义数据源。 在左侧的导航栏选择“数据源管理”,单击页面右上角的“接入数据源”。 在接入数据源页面的“自定义数据源”页签下,选择创建好的自定义连接器“MysqlConnector”,然后单击“下一步”。 在页面中配置数据源
public KafkaConfig() 构造一个无参数的KafkaConfig 方法列表 返回类型 方法和说明 static KafkaConfig getConfig(String servers, String groupId) 获取一个配置,用于访问MQS提供的Kafka(不开启sasl_ssl)。
Connect实例都有自己的访问地址。某个子公司或部门要通过内网访问其他子公司或部门的开放API,就需要打通到多个不同VPC的网络,访问多个不同的地址,在操作配置上十分复杂。 不同子公司或部门在开放API时,定义的API认证方式、格式等会各不相同。某个子公司或部门要访问其他子公司或部门的开放
DataSourceConfig() 构造一个无参数的DataSourceConfig public DataSourceConfig(String type, String url, String user, String password) 传入数据源类型,连接字符串,用户名和密码,构造一个DataSourceConfig
type为instance时,为实例编码 project_id String 租户项目编号 common_name String 域名 san Array of strings san扩展域名 not_after String 有效期到 signature_algorithm String 签名算法 create_time
的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“数据源管理”,单击页面右上角的“接入数据源”。 在接入数据源页面的“默认数据源”页签下,选择“MRS Hive”类型的数据源,然后单击“下一步”。 在页面中配置数据源的连接信息。 表1 数据源连接信息 参数 配置说明 数据源名称
的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“数据源管理”,单击页面右上角的“接入数据源”。 在接入数据源页面的“默认数据源”页签下,选择“MRS HDFS”类型的数据源,然后单击“下一步”。 在页面中配置数据源的连接信息。 表1 数据源连接信息 参数 配置说明 数据源名称