检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Hive数据源时,上传的配置文件中全部用的EIP,Hosts里面也配置好IP与Hostname,但是在上传文件时HDFS的Master节点返回的node节点的IP为内网IP,所以连接不通,导致FDI任务执行异常。 解决方案 修改在创建MRS Hive数据源时上传的hdfs-site.xml文件中,在hdfs-site
添加网关子设备 主题Topic Topic /v1/devices/{gatewayId}/topo/add 消息发送方 边设备 消息接收方 物联网平台 参数说明 字段名 必选/可选 类型 参数描述 mid 必选 Integer 命令ID。 deviceInfos 必选 List<DeviceInfos>
content:Base64加密后的字符串 返回信息 返回解密后的字符串 public static java.lang.String encode(byte[] content) 对字符数组进行Base64加密 输入参数 content:待加密的字符数组 返回信息 返回加密后的字符串 public
是 租户每个区域对应的项目ID。 instance_id string 是 租户使用ROMA Connect的实例ID。 请求消息 请求参数 表2 Body参数 参数 类型 是否必填 说明 product_name string 是 系统中已经创建好的产品的产品名。 device_name
目标端MRS Hive和源端字段数据类型不匹配时,例如源端字段为datetime,目标端字段为date,数据可以集成到目标端,但是数据类型不匹配的字段值会为NULL,其他字段正常集成。 父主题: 数据集成普通任务
API发布到RELEASE环境可以正常访问,发布到非RELEASE环境无法访问? 添加x-stage请求头后即可访问,值为环境名。 父主题: 服务集成
ConnectionConfig类说明 路径 com.roma.apic.livedata.config.v1.ConnectionConfig 说明 与RabbitMqConfig和RabbitMqProducer配合使用,对RabbitMQ客户端进行连接配置。 构造器详情 public
QueueConfig类说明 路径 com.roma.apic.livedata.config.v1.QueueConfig 说明 与RabbitMqConfig和RabbitMqProducer配合使用,对队列进行配置。 构造器详情 public QueueConfig(String
RabbitMqConfig类说明 路径 com.roma.apic.livedata.config.v1.RabbitMqConfig 说明 与ConnectionConfig,QueueConfig,ExchangeConfig和RabbitMqProducer配合使用,对RabbitMQ客户端进行配置。
MRS Hive写入时数据全部写在第一个字段里 原因分析 建表时没有使用列分隔符。 解决方案 在数据库中执行以下命令设置分隔符: alter table 表名set serdeproperties('field.delim'='分隔符') 父主题: 数据集成任务
目标端数据源为公网Kafka时,定时任务目标端报“The task executes failed.Writer data to kafka failed”错误 原因分析 目标端数据源为公网Kafka时,由于网络原因导致定时任务报“The task executes failed