检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
更新网关子设备状态响应 主题Topic Topic /v1/devices/{gatewayId}/topo/updateResponse 消息发送方 物联网平台 消息接收方 边设备 参数说明 字段名 必选/可选 类型 参数描述 mid 必选 Integer 命令ID。 statusCode
生产消息接口说明 功能介绍 向指定队列发送消息,可同时发送多条消息。 每次最多发送10条。 每次发送的消息总负载不超过2MB。 endpoint为https://{rest_connect_address}:9292,通过指定实例接口查询rest_connect_address的IP
为什么规则引擎的数据目的端未收到设备发送的消息? 数据目的端未收到设备发送的消息主要有以下原因: 可能是您的安全组没有添加正确的入方向规则。 请您进入“实例信息”界面,找到您的安全组。单击安全组名称进入安全组详情页面,然后根据表1添加相应的入方向规则。 表1 安全组参数 参数 端口
FDI各类数据库支持哪些数据类型? FDI各类数据库支持的数据类型有: Kafka数据库:string MySQL数据库:integer,bigint,number,varchar,char,float,date,timestamp,datetime Oracle数据库:integer
创建规则引擎目的端 功能介绍 在ROMA Connect创建规则引擎目的端。 URI POST /v1/{project_id}/link/instances/{instance_id}/rules/destinations 表1 参数说明 名称 类型 是否必填 描述 project_id
应用 选择对应的集成应用。 数据源 根据“执行动作”选择的数据源类型,选择相同类型数据源。 例如执行动作选择的是“发送消息至Kafka”,此处数据源则选择“Kafka”。 Topic 名称 选择用户接收消息的Topic。
FDI通过公网对接其他租户的MRS HIVE如何配置? 首先需要将MRS的IP全部绑定EIP,然后在MRS配置文件中的私网IP全部替换成EIP,再到hdfs-site.xml文件中添加一个配置项“dfs.client.use.datanode.hostname”,值设为“true”
附录:QuartZ Cron表达式配置说明 参数说明 数据集成任务支持使用QuartZ Cron表达式配置定时任务的调度计划。 QuartZ Cron表达式由6个部分组成,每个部分使用空格隔开。表达式中的六个部分从左到右代表的含义如下: 秒 分 时 日 月 周 具体参数如表1所示。
创建设备自定义Topic 功能介绍 在ROMA Connect创建一个Topic。 URI POST /v1/{project_id}/link/instances/{instance_id}/topics 表1 参数说明 名称 类型 是否必填 描述 project_id string
Mysql到Mysql时源端报“Illegal mix of collations for operation 'UNION'”错误 原因分析 从源端数据源视图中查看,视图定义语句使用了union,但是union两边字段编码不一致,须统一编码。 解决方案 建议使用CONVERT转换为统一编码
在同一实例内,用户只能查看和管理自己创建的集成应用和资源,默认不能查看其他用户创建的集成应用和资源。 用户可以通过集成应用授权的方式,把集成应用下的资源共享给同一账号下的其他用户来查看和使用。 父主题: 实例管理
Java客户端使用说明 操作场景 本文介绍Java版本的Kafka客户端连接指导,并完成客户端连接以及消息生产与消费的相关示例。 前提条件 已获取MQS连接信息,具体请参见开发准备。 已安装开发工具和Java开发语言环境,具体请参见开发准备。 引入Kafka客户端 MQS基于Kafka
Go客户端使用说明 操作场景 本文以Linux CentOS环境为例,介绍Go版本的Kafka客户端连接指导,包括Kafka客户端安装,以及生产、消费消息。 前提条件 已获取MQS连接信息,具体请参见开发准备。 已安装开发工具和Python开发语言环境,具体请参见开发准备。 引入Kafka
源端API类型数据源自定义周期如何设置? 创建FDI普通任务时,当源端数据源选择API类型并且开启增量迁移时,支持自定义周期,自定义周期配置详细说明可参照以下示例: 当粒度单位为“小时”时,分别有以下四种配置场景。 以时间点2020-11-05 22:10为例,如下图。 周期指定为
Python客户端使用说明 操作场景 本文以Linux CentOS环境为例,介绍Python版本的Kafka客户端连接指导,包括Kafka客户端安装,以及生产、消费消息。 前提条件 已获取MQS连接信息,具体请参见开发准备。 已安装开发工具和Python开发语言环境,具体请参见开发准备
购买RCU时套餐包,当月未使用完的RCU时下个月是否可以继续使用? 不可以,上个生效月RCU时余量不可以转结到下个生效月。 父主题: 计费FAQ
源端Mysql增量采集每小时执行一次时部分数据丢失 原因分析 任务中配置的时间戳字段为updatetime,源端数据库中createtime记录了数据插入的时间,查看未采集到的数据,updatetime要早于createtime,导致任务运行时数据还没有插入updatetime的时间已经不在增量采集的时间段之内
API到MySQL的定时任务时会出现源端报“connect timeout”错误 原因分析 数据面有6个节点,其中两个节点ping不通API的IP。 解决方案 属于网络问题,需要找VPC定位。 父主题: 数据集成任务
MRS Hive写入时数据全部写在第一个字段里 原因分析 建表时没有使用列分隔符。 解决方案 在数据库中执行以下命令设置分隔符: alter table 表名set serdeproperties('field.delim'='分隔符') 父主题: 数据集成任务
其他语言客户端使用说明 MQS完全兼容Kafka开源客户端。 如果您使用其他语言,也可以从Kafka官网获取客户端,按照Kafka官网提供的连接说明,与MQS对接。 获取客户端的地址请参考Kafka官网。 父主题: MQS连接开发(开源客户端)