检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
目标表中配置的RowId字段类型不正确导致写入数据失败 原因分析 使用RowId的方式采集Oracle表数据时,由于设置表字段类型不正确,导致报错,如下图。 解决方案 修改表字段类型,RowId一般是使用字母、数字生成的18位字符串,采集到目标端需要为字符类型。 父主题: 数据集成组合任务
致连接失败。 HDFS URL填写了根目录hdfs:///hacluster,机机交互用户名填写的用户不具备管理员权限导致连接失败。 解决方案 将MRS Hive的服务端机器绑定EIP,在配置文件中将IP换成EIP,在hdfs-site.xml文件中添加“dfs.client.use
原因分析 查看任务mapping配置,源端字段类型的长度超出目标端字段类型的长度限制,或者配置的映射字段中某个字段在源端的数据中不存在。 解决方案 检查字段映射配置的字段类型是否匹配、字段是否超出长度限制、字段是否存在,如果有不符合要求的请修改。 父主题: 数据集成任务
网关提示后端服务调用失败。 如果“后端服务地址”在ECS(Elastic Cloud Server),ECS的安全组无法被外部访问。 解决方案 在编辑API中修改后端服务地址。 在编辑API中增加后端超时时间。 确认业务的出入端口和协议都设置正确。 父主题: 服务集成
events generated with statement or mixed based replication forma,如下图所示。 解决方案 该问题是debezium当前版本的一个BUG,需要用户升级MySQL。 对于组合任务,可以尝试通过修改配置的方法规避,首先删除此表的配置
问题后,重启任务,可以重新消费并处理未成功入库的数据。所以即使修改了任务配置,如果数据还是不符合目标端的要求,那么任务仍然执行失败。 解决方案 可参考以下三种方法进行处理: Kafka通道的topic中的数据老化时间为6小时,可以等待脏数据被清理掉后启动任务。 删除原任务并重建,
在DWS磁盘空间达到阈值,例如80%,或者某些大数据量的表存在数据倾斜时,DWS集群会变为只读状态。从FDI侧来看,在某个时间点,所有访问DWS的任务均异常停止。 解决方案 处理DWS只读状态问题,恢复数据库服务后,如果FDI的任务停止时间没有超过6小时,可以直接启动任务。如果已经超过6小时,通道内的数据已经
服务集成 APIC是否支持多后端节点方案? 使用iOS系统时,如何进行APP认证? 怎样保证API对应的后端服务器的安全? 对API的修改是否需要重新发布? API发布到RELEASE环境可以正常访问,发布到非RELEASE环境无法访问? API发布到不同环境后,会调用不同的后端服务吗?
插入数据违反非空约束 原因分析 任务执行异常失败,查看日志有如下信息: 解决方案 可参考以下内容进行问题排查解决: 源表中此字段可为null,但创建目标表时设置此字段为非null属性,需修改字段属性保持一致。 用户配置任务时多了一个表映射,将一个相似名称的源表配置采集数据到此目标
访问的URL与API详情中的URL不相同。 API使用OPTIONS跨域请求,API中未开启CORS,未创建OPTIONS方式的API。 解决方案 发布API到环境。 修改URL,使访问的URL与API详情中的URL保持一致,注意URL后如果少一个“/”也会导致无法匹配上此API。 例如http://example
一般情况下,中级机构颁发的证书文件包含多份证书,如包含服务器证书和证书链2个*.PEM格式的证书内容。在填写证书时,未把所有证书拼接在一起组成一份完整的证书。 解决方案 在填写证书时,需要将所有证书拼接在一起组成一份完整的证书后再填写。拼接时,须按照“服务器证书-证书链”的顺序进行拼接,具体方法如下: 通过记事本打开所有*
ostname,但是在上传文件时HDFS的Master节点返回的node节点的IP为内网IP,所以连接不通,导致FDI任务执行异常。 解决方案 修改在创建MRS Hive数据源时上传的hdfs-site.xml文件中,在hdfs-site.xml文件中添加dfs.client.use
Connect控制台。 在左侧导航栏选择“资源管理”,鼠标悬停于需要调整RCU的实例上,左下角单击“RCU调控”。 在RCU调控页面调整实例的RCU分配方案,系统会根据您配置的RCU值重新计算配置费用。 仅当“RCU分配”中首次为消息集成分配了RCU时,需参考表2配置MQS相关信息。完成后单击“下一步”。
以根据数据对已有的生产策略进行优化,也很难决定是否启用新的生产策略。 ROMA Connect的数据采集、集成以及借助企业级大数据分析解决方案,助力制造业向物联网集成转型,最终达成“智”造愿景。 设备数字化与统一集成 ROMA Connect使用MQTT、网关等多种方式协议连接各
ROMA Connect助力集团企业完成子公司与集团总部之间、集团与外部合作伙伴之间集成,如图1所示,ROMA Connect提供的场景方案包括: 跨域集成:集团总部、集团子公司、合作伙伴分布在不同的地域,将各自的设备信息、数据、消息传输到ROMA Connect, 由ROMA
MQS消息堆积最佳实践 方案概述 Kafka将Topic划分为多个分区,消息被分布式存储在分区中。同一个消费组内,一个消费者可同时消费多个分区,但一个分区在同一时刻只能被一个消费者消费。 在消息处理过程中,如果客户端的消费速度跟不上服务端的发送速度,未处理的消息会越来越多,这部分
2003语法,同时兼容PostgreSQL/Oracle/Teradata/MySQL等数据库生态,为各行业PB级海量大数据分析提供有竞争力的解决方案。 创建DWS连接 登录新版ROMA Connect控制台。 在左侧导航栏选择“连接器”,在连接器页面单击“新建连接”。 选择“DWS”连接器。
支持便捷的API生命周期管理 ROMA Connect提供了API的全生命周期管理,从API的创建、调试、发布、下线、授权、编辑和删除等,实现完整的API解决方案。 支持自定义API后端服务 ROMA Connect可自定义数据后端和函数后端两种后端服务: 数据后端:将数据源以API的形式对外开放,
encoding="UTF-8") 使用提供的编码方案将字符串转换为application/x-www-form-urlencoded格式,以获取不安全的字节。默认编码为UTF-8。 decode(string data, string encoding="UTF-8") 使用特定的编码方案解码applicat
附录:API错误码 用户调用API失败时,系统返回的错误码如下所示。 表1 错误码 HTTP状态码 错误码 错误描述 解决方案 404 APIC.0101 The API does not exist or has not been published in the environment