正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
req_param_id String 对应的请求参数编号 表17 VpcInfo 参数 参数类型 描述 ecs_id String 云服务器ID ecs_name String 云服务器名称 cascade_flag Boolean 是否使用级联方式 暂不支持 vpc_channel_proxy_host
LogMiner:表示使用Oracle数据库LogMiner模式的CDC功能。 出站服务器 仅当“CDC模式”选择“XStream”时需要配置。 填写的出站服务器名称,需要与在配置Oracle CDC(XStream)中设置的出站服务器一致。 数据库模式 仅当“CDC模式”选择“LogMiner”时需要配置。
建议由数据库管理员进行CDC功能的配置操作,以下配置以windows环境为例进行说明。 开启CDC。 使用SSMS客户端连接到SQL Server数据库所在服务器,以sa用户登录数据库。 其中,密码为数据库用户sa的密码,可向数据库管理员获取。 单击“新建查询”,选择你需要开启CDC的数据库。执行以下命令,开启SQL
backend available”错误 原因分析 可能是以下两种原因导致,请逐一排查: 后端服务无法访问。 ECS安全组未开放需要的端口。 解决方案 请修改后端服务。 修改ECS安全组配置,开放需要的端口。 父主题: 服务集成
plugin_vars 预装插件参数,请注意敏感信息保护,若涉及敏感信息,请自行加密。 port_id 云服务器对应的portId,小网连接ecs的场景下使用。 private_ip 云服务器ip,小网连接ecs的场景下使用。 pvc_quantity PVC规格,如5GB|10GB|20GB。 refresh_interval
全量重置将会删除全部已同步的进度信息,但不会删除目的端任何数据;再次执行任务将重新开始全量同步,当数据库中数据过多时,可能会需要等待较长时间才会开始实时同步阶段,请谨慎使用该功能。 重置同步进度后,任务会重新进行数据的同步,然后再实时检测增量数据并同步。 需要组合任务支持源端新增数据表和数据字段的同步。
默认“utf-8”格式。 集成应用 选择数据源所归属的集成应用。 描述 填写数据源的描述信息。 主机IP地址 填写SAP系统的应用服务器地址。 实例编号 填写SAP系统的应用服务器实例号,实例号由2位字母或数字组成。 客户编号 填写SAP系统中要连接的客户端号,客户端号由3位数字组成。 用户名 填写连接SAP客户端的用户名。
设置配置参数 输入参数 key:配置信息key value:配置信息value 支持以下配置参数: jco.client.ashost:SAP服务器IP jco.client.sysnr:系统编号 jco.client.client:SAP集团 jco.client.user:SAP用户名
位置必须在API绑定的编排规则中存在 表14 VpcInfo 参数 是否必选 参数类型 描述 ecs_id 否 String 云服务器ID ecs_name 否 String 云服务器名称 cascade_flag 否 Boolean 是否使用级联方式 暂不支持 vpc_channel_proxy_host
仅当“数据源方向”选择“源端”时需要配置。 选择是否开启白名单,允许同步数据到白名单中的源端HL7服务器。 白名单 仅当“数据源方向”选择“源端”且“是否开启白名单”选择“是”时需要配置。 填写允许同步数据到源端HL7的服务器地址。 连接地址 仅当“数据源方向”选择“目标端”时需要配置。 填写HL7的访问IP地址和端口号。
流量控制策略 300 支持 访问控制策略 100 支持 环境 10 支持 签名密钥 200 支持 负载通道 200 支持 单个负载通道内的弹性云服务器 10 支持 自定义认证 50 支持 自定义后端 入门版:50 基础版:125 专业版:400 企业版:1000 铂金版:4000 支持
SapRfcConfig(); config.put("jco.client.ashost", "10.95.152.107");//服务器 config.put("jco.client.sysnr", "00"); //实例编号 config.put("jco
Cloud:指在云端部署的JIRA实例,用户可以使用任何Web浏览器从任何地方访问它。 On-Premise:指本地安装的JIRA实例,需要在自己的服务器或本地PC上安装和配置JIRA。 连接地址 填写JIRA的连接地址。 当“连接类型”选择“Cloud”时,连接地址格式为https://your-domain
整个任务。 输入方式 选择组件的输入方式。 API表单参数:表示通过API表单的方式来提交目标文件信息。 文本输入:表示直接通过文件传输服务器(如:FTP)方式来提交目标文件信息。 API表单参数 仅当“输入方式”选择“API表单参数”时需要配置。 获取上一节点传递的文件信息,填
备名叫做test的设备。您的设备可能与样例中的不同,请按照实际情况修改设备信息。 当上报的数据中,温度大于20摄氏度或者小于15摄氏度时,会触发该规则,并且解析数据中的温度、设备名称、位置,用于进一步处理。结果如图1所示。 图1 返回结果 使用方式: SQL语句由三个部分组成:S
实际开发前请务必提前了解自定义后端开发要求。 函数后端当前仅支持使用JavaScript编写函数,JavaScript引擎运行于Java虚拟机,可调用ROMA Connect提供的Java类实现具体功能。 脚本开发应基于内置推荐的加密算法,不建议用户自行实现。 公共配置引用 自定
livedata_config 自定义后端配置。 sandbox_max_memory:函数后端中执行脚本所允许使用的内存最大值。 sandbox_max_cpu_time:函数后端中执行脚本所允许占用的CPU时间最大值。 livedata_env:自定义后端的运行模式,设置为online时,自定义后端将会按照线上格式返回。
概述 断路器是ROMA Connect在后端服务出现性能问题时保护系统的内置机制。当API的后端服务出现连续N次超时或者时延较高的情况下,会触发断路器的降级机制,向API调用方返回固定错误或者将请求转发到指定的降级后端。当后端服务恢复正常后,断路器关闭,请求恢复正常。 配置参数说明
Filebeat部署在APIC的SHUBAO组件所在节点上,监控API调用日志的产生,并将其发送到ELK的Logstash进行处理。 ELK部署在独立服务器中,ELK的Logstash接收到日志数据后,根据设置的过滤解析规则,对日志数据进行拆分和过滤,然后将解析后的日志数据发送到ELK的ElasticSearch进行存储。
层/明细数据层/汇总数据层/应用数据层/贴源数据层。 连接地址 填写数据库的连接IP地址。 端口 填写数据库的端口。 目录 对应SFTP服务器文件目录地址 用户名 数据库的登录用户名。 密码 数据库的登录密码。 完成数据源接入配置后,单击“测试连接”,检测ABM与数据源之间是否能够连通。