检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
"roma_app_id" : "df003efc-1ce7-41ef-a45a-b89dc431cb2d" } 创建一个断路器插件,可见范围为集成应用可见 { "plugin_name" : "断路器插件", "plugin_type" : "breaker", "plugin_scope"
设置配置参数 输入参数 key:配置信息key value:配置信息value 支持以下配置参数: jco.client.ashost:SAP服务器IP jco.client.sysnr:系统编号 jco.client.client:SAP集团 jco.client.user:SAP用户名
var body = result.getBody(); return XmlUtils.toJson(body); } 构造器详情 public SoapClient(SoapConfig soapCfg) 构造一个包含SoapConfig配置信息的SOAP请求。
模型共享。 使用流程 使用ROMA Connect进行模型集成的流程如下图所示。 图1 业务使用流程 生成模型 采集技术模型 接入扩展采集器(可选) 接入数据源 创建采集任务 录入业务模型 创建信息架构 录入资产目录 录入基础数据 检索模型 父主题: 应用业务模型使用指导
record.partition(), code: 0, message: "OK" } } 构造器详情 public KafkaProducer(Map configs) 构造一个Kafka消息生产者 参数:configs表示Kafka的配置信息
通过提供多种场景的ROMA Connect配置样例,帮助您快速熟悉使用ROMA Connect集成数据、服务、消息、设备的过程。 数据集成 数据集成开发场景 连接器RESTful接口规范 自定义数据源开发示例(定时任务) 自定义数据源开发示例(实时任务) 服务集成 服务集成开发场景 API调用认证开发(APP认证)
util.Properties 说明 与KafkaProducer或KafkaConsumer配合使用,对Kafka客户端进行配置。 构造器详情 public KafkaConfig() 构造一个无参数的KafkaConfig 方法列表 返回类型 方法和说明 static KafkaConfig
res.push(iter.next()) } return JSON.stringify(res); } 构造器详情 public KafkaConsumer(Map configs) 构造一个Kafka消息消费者 参数:configs表示Kafka的配置信息
建议由数据库管理员进行CDC功能的配置操作,以下配置以windows环境为例进行说明。 开启CDC。 使用SSMS客户端连接到SQL Server数据库所在服务器,以sa用户登录数据库。 其中,密码为数据库用户sa的密码,可向数据库管理员获取。 单击“新建查询”,选择您需要开启CDC的数据库。执行以下命令,开启SQL
流量控制策略 300 支持 访问控制策略 100 支持 环境 10 支持 签名密钥 200 支持 负载通道 200 支持 单个负载通道内的弹性云服务器 10 支持 自定义认证 50 支持 自定义后端 入门版:50 基础版:125 专业版:400 企业版:1000 铂金版:4000 支持 客户端配额策略
最大长度:256 connection_instance_id 否 String 连接器实例ID,连接器发布后对应的实例ID。 最小长度:0 最大长度:256 connector_params 否 Object 连接器对应的数据源参数,值按实际填写。 表5 MultiOracleAddress
cors:跨域资源共享 set_resp_headers:HTTP响应头管理 kafka_log:Kafka日志推送 breaker:断路器 rate_limit: 流量控制 third_auth: 第三方认证 plugin_scope String 插件可见范围 global:全局可见
最大长度:256 connection_instance_id String 连接器实例ID,连接器发布后对应的实例ID。 最小长度:0 最大长度:256 connector_params Object 连接器对应的数据源参数,值按实际填写。 表7 MultiOracleAddress
VPC_NUM_LIMIT:租户可以创建的VPC通道个数限制 VPC_INSTANCE_NUM_LIMIT:每个VPC通道上可以绑定的弹性云服务器个数限制 API_PARAM_NUM_LIMIT:每个API可以设置的参数个数限制 API_USER_CALL_LIMIT:每个租户的API单位时间内的请求默认限制
Filebeat部署在APIC的SHUBAO组件所在节点上,监控API调用日志的产生,并将其发送到ELK的Logstash进行处理。 ELK部署在独立服务器中,ELK的Logstash接收到日志数据后,根据设置的过滤解析规则,对日志数据进行拆分和过滤,然后将解析后的日志数据发送到ELK的ElasticSearch进行存储。
close_inactive: 1m clean_inactive: 72h output.logstash: # 填写ELK组件所服务器的IP和Logstash对外开放的端口号(在ELK的logstash.conf文件中配置,默认为5044),需自行配置防火墙端口,开放访问权限。
最大长度:256 connection_instance_id 否 String 连接器实例ID,连接器发布后对应的实例ID。 最小长度:0 最大长度:256 connector_params 否 Object 连接器对应的数据源参数,值按实际填写。 表5 MultiOracleAddress
最大长度:256 connection_instance_id String 连接器实例ID,连接器发布后对应的实例ID。 最小长度:0 最大长度:256 connector_params Object 连接器对应的数据源参数,值按实际填写。 表5 MultiOracleAddress
cors:跨域资源共享 set_resp_headers:HTTP响应头管理 kafka_log:Kafka日志推送 breaker:断路器 rate_limit: 流量控制 third_auth: 第三方认证 plugin_scope String 插件可见范围 global:全局可见
cors:跨域资源共享 set_resp_headers:HTTP响应头管理 kafka_log:Kafka日志推送 breaker:断路器 rate_limit: 流量控制 third_auth: 第三方认证 plugin_scope String 插件可见范围 global:全局可见