检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
/v1/{project_id}/apic/instances/{instance_id}/livedata-apis/{ld_api_id}/test 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方式请参见API参考的“附录 > 获取项目ID”章节。 instance_id
自定义后端服务(V1) 查询后端API列表 创建后端API 查询后端API详情 修改后端API 删除后端API 查询后端API测试结果 查询后端API部署历史 部署后端API 测试后端API 撤销后端API 创建后端API脚本 父主题: 服务集成API(V1)
FDI任务只能采集单张表到单张表吗? 普通任务只能从源端的单个表采集到目标端单个表,组合任务可以配置多个表采集到多个表。 父主题: 数据集成普通任务
JSONHelper类说明 路径 com.huawei.livedata.lambdaservice.util.JSONHelper 说明 提供Json与Xml、Map之间的相互转换。 方法列表 返回类型 方法和说明 static String json2Xml(String json)
消费消息接口说明 功能介绍 消费指定队列中的消息,可同时消费多条消息。 当队列中消息较少时,单次消费返回的消息数量可能会少于指定条数,但多次消费最终可获取全部消息。当返回的消息为空数组时,表示未消费到消息。 endpoint为https://{rest_connect_addre
更新网关子设备状态响应 主题Topic Topic /v1/devices/{gatewayId}/topo/updateResponse 消息发送方 物联网平台 消息接收方 边设备 参数说明 字段名 必选/可选 类型 参数描述 mid 必选 Integer 命令ID。 statusCode
Connect实例控制台的“实例信息”页面,在“MQS基本信息”下查看Kafka版本信息。C#开源客户端的版本使用请参见客户端版本使用建议。 执行以下命令下载安装C#的Kafka依赖库。 dotnet add package -v 1.5.2 Confluent.Kafka 生产消息 SASL认证方式
API发布到RELEASE环境可以正常访问,发布到非RELEASE环境无法访问? 添加x-stage请求头后即可访问,值为环境名。 父主题: 服务集成
使用JavaScript调用API报“{error_msg: "The API does not exist or has not been published in an environment",…}”错误 原因分析 可能是以下三种原因导致,请逐一排查: API未发布到环境。
MRS Hive写入时数据全部写在第一个字段里 原因分析 建表时没有使用列分隔符。 解决方案 在数据库中执行以下命令设置分隔符: alter table 表名set serdeproperties('field.delim'='分隔符') 父主题: 数据集成任务
KafkaProducer类说明 路径 com.roma.apic.livedata.client.v1.KafkaProducer 说明 生产Kafka消息。 使用示例 importClass(com.roma.apic.livedata.client.v1.KafkaProducer);
SapRfcClient类说明 路径 com.roma.apic.livedata.client.v1.SapRfcClient 说明 使用RFC方式访问SAP函数 使用示例 importClass(com.roma.apic.livedata.client.v1.SapRfcClient);
CipherUtils类说明 路径 com.huawei.livedata.lambdaservice.security.CipherUtils 说明 解密密码箱中密码的key值。 在获取解密密码箱中普通密码的key值时,注意敏感信息保护,避免敏感信息泄露。 方法列表 返回类型 方法和说明
expireTime, String value) 更新redis缓存内容、过期时间,返回执行结果 String put(String key, String value) 更新redis缓存内容,返回执行结果 Long remove(String key) 删除指定key值的缓存消息 方法详情
FDI通过公网对接其他租户的MRS HIVE如何配置? 首先需要将MRS的IP全部绑定EIP,然后在MRS配置文件中的私网IP全部替换成EIP,再到hdfs-site.xml文件中添加一个配置项“dfs.client.use.datanode.hostname”,值设为“true”。
RabbitMqProducer类说明 路径 com.roma.apic.livedata.client.v1.RabbitMqProducer 说明 生产RabbitMQ消息。若发送消息没有异常,则消息发送成功;若发送消息抛出异常,则消息发送失败。 使用示例 用direct交换
目标表中配置的RowId字段类型不正确导致写入数据失败 原因分析 使用RowId的方式采集Oracle表数据时,由于设置表字段类型不正确,导致报错,如下图。 解决方案 修改表字段类型,RowId一般是使用字母、数字生成的18位字符串,采集到目标端需要为字符类型。 父主题: 数据集成组合任务
Java开源客户端的版本使用请参见客户端版本使用建议。 根据实例的Kafka版本信息使用对应版本的客户端,此处以2.7.2版本客户端为例进行说明。 <dependency> <groupId>org.apache.kafka</groupId> <artifactId
Connect实例控制台的“实例信息”页面,在“MQS基本信息”下查看Kafka版本信息。Go开源客户端的版本使用请参见客户端版本使用建议。 执行以下命令,安装对应版本的Go Kafka客户端。 go get github.com/confluentinc/confluent-kafka-go/kafka
多个数据源编排 一个数据API可以包含多个数据源,因此一次API请求可以涉及多个数据源,例如取第一个数据源查询结果作为第二个数据源的参数。 以MySQL为例说明,假设数据API有数据源1和数据源2,user01是数据源1的数据表和user02是数据源2的数据表,两张表的结构如下: