检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数脚本。 函数脚本的编写说明请参考自定义后端开发(函数后端)。 当前函数API支持的脚本大小最大为32KB。 完成后在页面右上角单击“保存”,保存函数后端配置。 测试后端功能。 在页面右上角单击“测试”,在下方的“测试参数”处,根据后端的定义添加请求参数,然后单击“立即测试”,发送请求。
“覆盖导入”。 不同实例的数据源ID不可以相同,如含有相同ID的数据源,请选择覆盖导入。 当选择“覆盖导入”时,根据是否需要覆盖环境配置选择“覆盖”或“不覆盖”。 覆盖:当导入的数据源存在同名数据源时,选择更新数据源。 不覆盖:当导入的数据源存在同名数据源时,不做更新。 输入前缀。
/ELK/docker-compose.yml 其中,log目录用于挂载Logstash的数据目录,存储Logstash处理后的数据和元数据信息,即使容器Logstash被删除,日志数据也不会丢失,并且可以轻松的备份和恢复数据。 执行以下命令为log目录配置权限。 chmod 777 /ELK/logstash/log
source_datasource_id String 源端数据源ID。 最小长度:1 最大长度:64 target_datasource_id String 目标端数据源ID。 最小长度:1 最大长度:64 source_datasource_name String 源端数据源的名称。 最小长度:1 最大长度:64
如何修复意外重启等原因导致的XStream模式Oracle CDC功能异常? 因Oracle数据库意外重启等原因导致CDC功能异常时,可以在Oracle数据库中执行以下命令来排查和修复。 以sys用户连接到Oracle数据库,然后执行以下命令: SELECT CAPTURE_NAME,status
查询子设备 功能介绍 查询子设备。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project_id}/link/instances/{inst
objects 数据源列表 表5 LdDatasourceInfo 参数 参数类型 描述 name String 数据源名称 type String 数据源类型: oracle:oracle数据源类型 mysql:mysql数据源类型 mongodb:mongodb数据源类型 redis:redis数据源类型
验室信息管理系统等)进行集成,提升数据共享效率。典型的医疗行业集成模板包括: 药品管理系统集成:将药品库存、供应链和分发系统与医疗管理平台集成,确保药品管理的实时性与精确性。 医保支付子系统与药店零售进销存管理系统集成:医保支付系统付费的药品数据推送给药店进销存管理系统。 药店信
连接器 创建连接器 发布连接器 父主题: 数据集成指导
开发规范 开发建议 数据集成开发建议: ROMA Connect仅对连接器的RESTful接口做了规范定义,具体连接器对数据源的读写功能以及RESTful接口均需要您自行开发,您可以自行选择开发语言进行连接器开发。 连接器开发完成后,您需要自行部署连接器,并确保连接器所在网络与ROMA
Connect中创建连接器后,您需要发布一个连接器实例,实现ROMA Connect与已部署连接器的对接。ROMA Connect通过已发布的连接器实例接入自定义数据源,实现对数据源的读写。 前提条件 已完成连接器的线下开发和部署,连接器与ROMA Connect的对接接口开发请参考连接器RESTful接口规范。
site.xml文件中添加一个配置项“dfs.client.use.datanode.hostname”,值设为“true”。 父主题: 数据集成普通任务
ed_to_string 数据后端是否支持数据列类型转换String类型。开启后,勾选的数据列类型允许转换为String类型数据。 是否支持配置数据列类型:数据后端的数据列类型转换String类型开关。 数据列类型列表:勾选要转换String类型的数据列类型,当前仅支持nvarchar2类型。
Discover”。 在页面中单击“Create data view”,创建数据视图。 在创建数据视图页面中,配置视图信息,完成后单击“Save data view to Kibana”保存视图。 Name:数据视图名称,自定义。 Index pattern:使用通配符形式匹配多个日
修改组合任务 重置组合任务进度 创建组合任务映射 查询组合任务的映射列表 修改组合任务映射 删除指定任务映射 组合任务自动映射 父主题: 数据集成API
原因分析 Writer端写入数据时,先从Kafka通道的topic中消费数据,成功入库后才将消费偏移量提交给Kafka。如果写入数据时发生异常,将不会提交消费偏移量,等待修复问题后,重启任务,可以重新消费并处理未成功入库的数据。所以即使修改了任务配置,如果数据还是不符合目标端的要求,那么任务仍然执行失败。
用户创建的FDI任务,同一账号的其他用户可见吗? FDI任务是做的用户隔离,如果没有授权,同一账号的其他用户看不到,用户要看到其他用户的任务需要通过集成应用授权。 父主题: 数据集成普通任务
token input" } } } return result } 完成函数编辑后,在页面右上角单击“保存”,保存函数后端配置。 在页面右上角单击“部署”,在确认弹窗中单击“确定”,部署函数后端。 创建前端自定义认证 在实例控制台左侧的导航栏选择“服务集成
配置API的访问控制 访问控制可控制访问API的IP地址和账户,保护后端服务。您可以创建访问控制策略,允许/禁止某个IP地址或账号访问绑定策略的API。 访问控制策略和API本身是相互独立的,只有将API绑定访问控制策略后,访问控制策略才对API生效。 约束与限制 同一个API在
在“实例信息”页面选择“配置参数”页签,并找到级联功能开关参数“cascade”。 单击参数右侧的“编辑”,把参数运行值设置为“on”,然后单击“保存”,打开级联功能开关。 单击参数左侧的“”,展开并配置级联相关配置参数。 表1 被级联实例配置 参数 配置说明 cascade_auth_key