检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
向DWS写入数据时越来越慢怎么解决 原因分析 查看界面上的采集数据,如果写入数据耗时在秒级,属于正常的情况。如果写入几千条数据超过5秒,一般是性能劣化的表现。 解决方案 如果对DWS的某个表频繁访问,会导致写入性能逐渐降低,需要对DWS进行调优,例如,定时使用analyze规划表、VACUUM
目标端数据源为公网Kafka时,定时任务目标端报“The task executes failed.Writer data to kafka failed”错误 原因分析 目标端数据源为公网Kafka时,由于网络原因导致定时任务报“The task executes failed.Writer data to
Mysql到Mysql时源端报“Illegal mix of collations for operation 'UNION'”错误 原因分析 从源端数据源视图中查看,视图定义语句使用了union,但是union两边字段编码不一致,须统一编码。 解决方案 建议使用CONVERT转换为统一编码,如:CONVERT
使用MQTTBox客户端连接ROMA Connect失败 原因分析 可能是以下两种原因导致,请逐一排查: 连接配置信息MQTT Client Id、Host、Username和Password有误。 “Appendtimestamp to MQTT client id?”选项被勾选。
与其他服务的关系 虚拟私有云 虚拟私有云(Virtual Private Cloud,简称VPC)是用户在云服务平台上申请的隔离的、私密的虚拟网络环境。用户可以自由配置VPC内的IP地址段、子网、安全组等子服务,也可以申请弹性带宽和弹性IP搭建业务系统。 ROMA Connect
field”错误 原因分析 查看任务mapping配置,源端字段类型的长度超出目标端字段类型的长度限制,或者配置的映射字段中某个字段在源端的数据中不存在。 解决方案 检查字段映射配置的字段类型是否匹配、字段是否超出长度限制、字段是否存在,如果有不符合要求的请修改。 父主题: 数据集成任务
后端服务调用失败 原因分析 可能是以下三种原因导致,请逐一排查: 后端服务地址错误。 后端超时时间设置不合理。 当后端服务没有在设置的后端超时时间内返回时,API网关提示后端服务调用失败。 如果“后端服务地址”在ECS(Elastic Cloud Server),ECS的安全组无法被外部访问。
unauthorized”错误 原因分析 可能是以下两种原因产生该问题: 创建API的时候“安全认证”选择的是“无认证”,创建数据源的时候“认证方式”选了“AppKey Auth”。 创建API的时候“安全认证”选择的是“App认证”,创建数据源的时候“认证方式”选了“AppKey
智慧园区集成 园区的智能化管理存在诸多难题: 个性化定制的管理系统阻碍信息采集和信息共享。 例如园区内建筑之间的结构存在差异,企业通过对管理各建筑的子系统进行个性化定制,可以收集到每个建筑中的所有信息。但是个性化定制之后,子系统之间的差异会对信息采集与共享造成阻碍,不能有效的传输信息,降低园区智能化的水平。
源端Mysql增量采集每小时执行一次时部分数据丢失 原因分析 任务中配置的时间戳字段为updatetime,源端数据库中createtime记录了数据插入的时间,查看未采集到的数据,updatetime要早于createtime,导致任务运行时数据还没有插入updatetime的时间已经不在增量采集的时间段之内,所以部分数据采集不到。
…}”错误 原因分析 可能是以下三种原因导致,请逐一排查: API未发布到环境。 访问的URL与API详情中的URL不相同。 API使用OPTIONS跨域请求,API中未开启CORS,未创建OPTIONS方式的API。 解决方案 发布API到环境。 修改URL,使访问的URL与API
导致向此字段写入空数据,需确保表映射正确。 Oracle产生的RedoLog中,UPDATE语句的字段中没有WHERE条件,导致缺少此字段的值,需添加UPDATE语句字段中的WHERE条件。 父主题: 数据集成组合任务
字段间的映射规则自动建立。 图1 自动Mapping 手动配置Mapping 如果两端的数据表字段不一致,可单击下方的“添加mapping映射”,配置源端数据字段到目标端数据字段的映射关系。 用户可以手动添加源端数据字段与目标端数据字段的映射规则,该方式适用于所有数据类型的集成场
this operation”错误 原因分析 HDFS集群节点都绑定了EIP,在创建MRS Hive数据源时,上传的配置文件中全部用的EIP,Hosts里面也配置好IP与Hostname,但是在上传文件时HDFS的Master节点返回的node节点的IP为内网IP,所以连接不通,导致FDI任务执行异常。
MRS Hive数据源测试连接失败 原因分析 可能是以下两种原因导致: MRS Hive的配置文件中使用的私网IP,私网IP与FDI数据面IP不通导致连接失败。 HDFS URL填写了根目录hdfs:///hacluster,机机交互用户名填写的用户不具备管理员权限导致连接失败。 解决方案
添加证书时系统提示证书链不完整 原因分析 一般情况下,中级机构颁发的证书文件包含多份证书,如包含服务器证书和证书链2个*.PEM格式的证书内容。在填写证书时,未把所有证书拼接在一起组成一份完整的证书。 解决方案 在填写证书时,需要将所有证书拼接在一起组成一份完整的证书后再填写。拼接时,须按
果数据还是不符合目标端的要求,那么任务仍然执行失败。 解决方案 可参考以下三种方法进行处理: Kafka通道的topic中的数据老化时间为6小时,可以等待脏数据被清理掉后启动任务。 删除原任务并重建,那么Kafka通道中的topic会被删除,脏数据会被清理掉。 对于组合任务,可以
策略名称 填写访问控制策略的名称,根据规划自定义。建议您按照一定的命名规则填写访问控制策略名称,方便您快速识别和查找。 类型 选择访问控制策略的限制类型。 IP地址:限制可调用API的IP地址。 账号名:仅适用IAM认证类型的API,限制可用于调用API的账号。 仅支持配置账号名,
Connect作为消息管理系统,查看队列的消息内容对于定位问题与调试服务是至关重要的。 当消息的生产和消费过程中遇到疑难问题时,通过创建不同消费组可以帮助定位分析问题或调试服务对接。用户可以创建一个新的消费组,对主题中的消息进行消费并分析消费过程,这样不会影响其他服务对消息的处理。 父主题: MQS连接开发(开源客户端)
max_cpu_time 允许函数API中执行的CPU时间占用的最高时长。单位:毫秒。 60000 ms 1-1000000 ms max_memory 允许函数API中执行的内存大小。单位:字节。 256 M 1-9536 M livedata_env 自定义后端的运行模式,设置为online时