检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
附录:API的Swagger扩展定义 ROMA Connect在Swagger原有定义的基础上,定义了特有的API定义项,即扩展定义,如认证方式、后端服务定义等。本章节主要介绍API使用的扩展定义。 1:x-apigateway-auth-type 含义:基于Swagger的apiKey认证格式,定义ROMA
分组可以创建的API数量限制 API_POLICY_NUM_LIMIT:每个API可以设置的策略后端个数限制 API_CONDITION_NUM_LIMIT:每个API策略后端可以设置的条件个数限制 SL_DOMAIN_CALL_LIMIT:每个二级域名单位时间内的请求默认限制
创建任务时,目标端存储类型选择与建表时类型不一致。 比如建表时存储类型为text(文本文件),而创建任务时目标端存储类型选择了RCFile格式。 解决方案 修改界面选择的存储类型与建表时一致即可。 父主题: 数据集成任务
Connect支持跨VPC和子网访问。 与ROMA Connect实例在相同VPC内时,可直接跨子网段访问。 与ROMA Connect实例在不同VPC内时,可通过创建VPC对等连接,将两个VPC的网络打通,实现跨VPC访问实例。关于创建和使用VPC对等连接,请参考VPC对等连接。 父主题: 实例管理
OBS数据源测试连接失败 原因分析 可能是以下两种原因导致: 数据源地址未配置为Endpoint地址。 AK/SK和桶名称不正确。 解决方案 修改地址为Endpoint地址。 填写正确的AK/SK和桶名称。 如果排除以上问题后,仍然连接失败,可参考数据源连接测试失败排查操作进行问题排查。 父主题: 数据源
“Appendtimestamp to MQTT client id?”选项被勾选。 解决方案 在MQTTBox客户端配置页面,检查MQTT Client Id、Host、Username和Password的配置是否有误。 将“Appendtimestamp to MQTT client
available”错误 原因分析 可能是以下两种原因导致,请逐一排查: 后端服务无法访问。 ECS安全组未开放需要的端口。 解决方案 请修改后端服务。 修改ECS安全组配置,开放需要的端口。 父主题: 服务集成
MRS Hive写入时数据全部写在第一个字段里 原因分析 建表时没有使用列分隔符。 解决方案 在数据库中执行以下命令设置分隔符: alter table 表名set serdeproperties('field.delim'='分隔符') 父主题: 数据集成任务
FDI任务是否支持清空目标表? 子用户创建的FDI任务,其他子用户是不可见的吗? 对API的修改是否需要重新发布? API发布到不同环境后,会调用不同的后端服务吗? 为什么我的设备不能接入LINK? LINK支持哪些通信协议? 更多 智能客服 您好!我是有问必答知识渊博的的智能问答机器人,有问题欢迎随时求助哦!
附录:API的Swagger扩展定义 ROMA Connect在Swagger原有定义的基础上,定义了特有的API定义项,即扩展定义,如认证方式、后端服务定义等。本章节主要介绍API使用的扩展定义。 1:x-apigateway-auth-type 含义:基于Swagger的apiKey认证格式,定义ROMA
表名存在乱码导致Camel访问数据库失败 原因分析 访问数据库使用参数不正确,导致组合任务启动失败,任务终止。 解决方案 检查数据库中是否有表名存在乱码的情况,如果存在请和数据库管理员沟通后删除乱码表名的表,然后重新启动任务。 父主题: 数据集成组合任务
失 原因分析 任务中配置的时间戳字段为updatetime,源端数据库中createtime记录了数据插入的时间,查看未采集到的数据,updatetime要早于createtime,导致任务运行时数据还没有插入updatetime的时间已经不在增量采集的时间段之内,所以部分数据采集不到。
目标端数据源为公网Kafka时,由于网络原因导致定时任务报“The task executes failed.Writer data to kafka failed”错误。 解决方案 等待定时任务下次任务调度,或者停止任务再重新启动任务。 父主题: 数据集成任务
当后端服务没有在设置的后端超时时间内返回时,API网关提示后端服务调用失败。 如果“后端服务地址”在ECS(Elastic Cloud Server),ECS的安全组无法被外部访问。 解决方案 在编辑API中修改后端服务地址。 在编辑API中增加后端超时时间。 确认业务的出入端口和协议都设置正确。
原因分析 查看任务mapping配置,源端字段类型的长度超出目标端字段类型的长度限制,或者配置的映射字段中某个字段在源端的数据中不存在。 解决方案 检查字段映射配置的字段类型是否匹配、字段是否超出长度限制、字段是否存在,如果有不符合要求的请修改。 父主题: 数据集成任务
operation 'UNION'”错误 原因分析 从源端数据源视图中查看,视图定义语句使用了union,但是union两边字段编码不一致,须统一编码。 解决方案 建议使用CONVERT转换为统一编码,如:CONVERT (ID USING utf8 ) AS ID。 父主题: 数据集成任务
据,需确保表映射正确。 Oracle产生的RedoLog中,UPDATE语句的字段中没有WHERE条件,导致缺少此字段的值,需添加UPDATE语句字段中的WHERE条件。 父主题: 数据集成组合任务
可能是以下两种原因导致: MRS Hive的配置文件中使用的私网IP,私网IP与FDI数据面IP不通导致连接失败。 HDFS URL填写了根目录hdfs:///hacluster,机机交互用户名填写的用户不具备管理员权限导致连接失败。 解决方案 将MRS Hive的服务端机器绑定EIP,在配置
在DWS磁盘空间达到阈值,例如80%,或者某些大数据量的表存在数据倾斜时,DWS集群会变为只读状态。从FDI侧来看,在某个时间点,所有访问DWS的任务均异常停止。 解决方案 处理DWS只读状态问题,恢复数据库服务后,如果FDI的任务停止时间没有超过6小时,可以直接启动任务。如果已经超过6小时,通道内的数据已经过期,需
Writer端写入数据时,先从Kafka通道的topic中消费数据,成功入库后才将消费偏移量提交给Kafka。如果写入数据时发生异常,将不会提交消费偏移量,等待修复问题后,重启任务,可以重新消费并处理未成功入库的数据。所以即使修改了任务配置,如果数据还是不符合目标端的要求,那么任务仍然执行失败。 解决方案 可参考以下三种方法进行处理: