检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数据层。 JDBC字符串 填写HIVE的JDBC格式连接串,例如:jdbc:hive2:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传FI
IP访问的次数上限,该数值不超过API流量限制值。输入的值不超过2147483647。正整数。 id String 流控策略的ID bind_num Integer 流控绑定的API数量 is_inclu_special_throttle Integer 是否包含特殊流控配置 1:包含
JDBC字符串 填写MRS HIVE的JDBC格式连接串,例如:jdbc:hive2:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传MRS
JDBC字符串 填写MRS BASE的JDBC格式连接串,例如:jdbc:hbase:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传MRS
前提条件 每个接入的数据源都要归属到某个集成应用下,在接入数据源前您需要有可用的集成应用,否则请提前创建集成应用。 操作步骤 登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“数据源管理”,单击页面右上角的“接入数据源”。
JDBC字符串 填写FI HBSE的JDBC格式连接串,例如:jdbc:hbase:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传FI
集成应用 选择数据源所归属的集成应用。 描述 填写数据源的描述信息。 连接地址 填写DWS集群中数据库的连接IP地址和端口号。 数据库名 填写DWS集群中要接入的数据库名。 用户名 填写连接数据库的用户名。 密码 填写连接数据库的用户密码。 DWS数据源的接入配置示例如下图所示。 图1
客户端配额可限制单位时间内客户端调用API的总次数,保护后端服务。您可以创建客户端配额策略,对绑定策略的客户端进行调用次数限制。 客户端配额策略和客户端本身是相互独立的,只有将客户端绑定客户端配额策略后,客户端配额策略才对客户端生效。 仅具有Tenant Administrator权限的用户才可查看和配置客户端配额策略。
默认“utf-8”格式。 集成应用 选择数据源所归属的集成应用。 描述 填写数据源的描述信息。 地址 填写要接入的OBS桶的Endpoint地址,您可以在OBS控制台上获取。 端口 固定填写443。 Access Key ID 填写OBS桶拥有者的AK,具体获取方式请参考什么是我的凭证。 Secret
参数 配置说明 配置名称 填写配置的名称,根据规划自定义。 所属集成应用 选择配置所归属的集成应用。 配置类型 选择配置的类型,可选择“模板变量”、“密码”和“证书”。 配置值 仅当“配置类型”选择“模板变量”和“密码”时可配置。 填写模板变量或密码的值。 确认配置值 仅当“配置类型”选择“密码”时可配置。
校验自定义后端API定义 功能介绍 校验自定义后端API定义。校验自定义后端API的路径或名称是否已存在 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /
默认“utf-8”格式。 集成应用 选择数据源所归属的集成应用。 描述 填写数据源的描述信息。 连接地址 填写RabbitMQ的连接IP地址和端口号。 用户名 填写连接RabbitMQ的用户名。 密码 填写连接RabbitMQ的用户密码。 虚拟主机 填写要连接的RabbitMQ虚拟主机名称。 是否开启SSL认证
您可以单击“实例ID”右侧的“”复制实例ID信息。 付费信息 实例的计费模式。 连接数 实例中占用连接数的各资源数量,具体的资源和连接数换算关系请参见连接数说明。 MQS基本信息 实例的MQS的基本配置信息。您可以根据实际需要修改“容量阈值策略”。 连接地址 实例的相关对接地址,包括:
集成应用 选择数据源所归属的集成应用。 描述 填写数据源的描述信息。 连接地址 填写Kafka的连接地址和端口号。 如果Kafka有多个副本(Broker),可单击“添加地址”填写多个连接地址。 是否SASL_SSL ROMA Connect与Kafka的连接是否使用SASL_SSL认证加密。
数据集成权限 表1 数据集成权限 权限 对应API接口 授权项(Action) 依赖的授权项 IAM项目 (Project) 企业项目 (Enterprise Project) 创建任务 POST /v2/{project_id}/fdi/instances/{instance_id}/tasks
选择数据源所归属的集成应用。 描述 填写数据源的描述信息。 broker列表 填写ActiveMQ的broker连接地址,即主机IP地址和端口,多个broker地址可单击“添加地址”按钮进行添加。 用户名 填写连接ActiveMQ的用户名。 密码 填写连接ActiveMQ的用户密码。 是否开启SSL认证
在实例控制台创建一个集成应用,实例中的所有资源都要有归属的集成应用。 根据不同的业务场景,选择使用不同ROMA Connect功能。 数据集成:接入源端和目标端数据源,然后通过集成任务进行源端到目标端的数据集成。 服务集成:把已有后端服务、数据源和自定义函数封装成标准的RESTful API,并对外开放。
、kibana_image_id和python_image_id为4中查询到的对应组件的镜像ID。 把导出的镜像文件上传到服务器中。 把镜像文件filebeat_image.tar上传到SHUBAO组件所在节点,步骤1查询到的所有SHUBAO所在的节点都要上传。 把镜像文件logstash_image
FTP数据源解析模式下支持的最大文件大小为200M,超过200M的文件将自动跳过,不进行采集;解析的数据行数最大为1500000;不解析模式下,支持的最大文件大小为6M,最大文件数量为20000。 说明: FTP数据源之间多个文件同步统计,代表的是本次同步的文件的数量。 OBS数据源类型
合作伙伴之间的集成面临这些瓶颈: 地域差异 集团总部和集团子公司、合作伙伴所处的地域不同,时区不同,降低了数据的时效性和可靠性。 云服务差异 集团总部和集团子公司、合作伙伴使用的云服务不一样,调用不同的云服务存在困难。 网络差异 集团总部和集团子公司、合作伙伴使用的网络不一样,公网、专网、VPN之间的对接难度很高。