检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查询分组列表 功能介绍 查询API分组列表。 如果是租户操作,则查询该租户下所有的分组;如果是管理员操作,则查询的是所有租户的分组。 URI GET /v1/{project_id}/apic/instances/{instance_id}/api-groups 表1 路径参数 参数
查看签名密钥未绑定的API列表 功能介绍 查询所有未绑定到该签名密钥上的API列表。需要API已经发布,未发布的API不予展示。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。
JSON2XMLHelper类说明 路径 com.huawei.livedata.util.JSON2XMLHelper 说明 提供Json与Xml之间的相互转换。 方法列表 返回类型 方法和说明 static String JSON2XML(String json, boolean
Java客户端使用说明 操作场景 本文介绍Java版本的Kafka客户端连接指导,并完成客户端连接以及消息生产与消费的相关示例。 前提条件 已获取MQS连接信息,具体请参见开发准备。 已安装开发工具和Java开发语言环境,具体请参见开发准备。 引入Kafka客户端 MQS基于Kafka
Go客户端使用说明 操作场景 本文以Linux CentOS环境为例,介绍Go版本的Kafka客户端连接指导,包括Kafka客户端安装,以及生产、消费消息。 前提条件 已获取MQS连接信息,具体请参见开发准备。 已安装开发工具和Python开发语言环境,具体请参见开发准备。 引入Kafka
源端Mysql增量采集每小时执行一次时部分数据丢失 原因分析 任务中配置的时间戳字段为updatetime,源端数据库中createtime记录了数据插入的时间,查看未采集到的数据,updatetime要早于createtime,导致任务运行时数据还没有插入updatetime的时间已经不在增量采集的时间段之内
源端API类型数据源自定义周期如何设置? 创建FDI普通任务时,当源端数据源选择API类型并且开启增量迁移时,支持自定义周期,自定义周期配置详细说明可参照以下示例: 当粒度单位为“小时”时,分别有以下四种配置场景。 以时间点2020-11-05 22:10为例,如下图。 周期指定为
MD5Encoder类说明 路径 com.huawei.livedata.lambdaservice.util.MD5Encoder 说明 计算Md5值。 方法列表 返回类型 方法和说明 static String md5(String source) 计算字符串的Md5值 方法详情
Python客户端使用说明 操作场景 本文以Linux CentOS环境为例,介绍Python版本的Kafka客户端连接指导,包括Kafka客户端安装,以及生产、消费消息。 前提条件 已获取MQS连接信息,具体请参见开发准备。 已安装开发工具和Python开发语言环境,具体请参见开发准备
购买RCU时套餐包,当月未使用完的RCU时下个月是否可以继续使用? 不可以,上个生效月RCU时余量不可以转结到下个生效月。 父主题: 计费FAQ
使用JavaScript调用API报“{error_msg: "The API does not exist or has not been published in an environment",…}”错误 原因分析 可能是以下三种原因导致,请逐一排查: API未发布到环境。
创建后端API 功能介绍 在某个实例中创建后端API。 URI POST /v1/{project_id}/apic/instances/{instance_id}/livedata-apis 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String
删除自定义认证 功能介绍 删除自定义认证 URI DELETE /v1/{project_id}/apic/instances/{instance_id}/authorizers/{authorizer_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id
查询后端API详情 功能介绍 查询后端API的详细信息。 URI GET /v1/{project_id}/apic/instances/{instance_id}/livedata-apis/{ld_api_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id
C#客户端使用说明 操作场景 本文介绍C#版本的Kafka客户端连接指导,包括Kafka客户端安装,以及生产、消费消息。 前提条件 已获取MQS连接信息,具体请参见开发准备。 已安装开发工具和C#开发语言环境,具体请参见开发准备。 引入Kafka客户端 MQS基于Kafka社区版本
MRS Hive写入时数据全部写在第一个字段里 原因分析 建表时没有使用列分隔符。 解决方案 在数据库中执行以下命令设置分隔符: alter table 表名set serdeproperties('field.delim'='分隔符') 父主题: 数据集成任务
创建自定义认证 功能介绍 创建自定义认证 URI POST /v1/{project_id}/apic/instances/{instance_id}/authorizers 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方式请参见
创建后端API脚本 功能介绍 在某个实例中创建后端API脚本。 URI POST /v1/{project_id}/apic/instances/{instance_id}/livedata-scripts 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是
删除后端API 功能介绍 在某个实例中删除后端API。 URI DELETE /v1/{project_id}/apic/instances/{instance_id}/livedata-apis/{ld_api_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id
部署后端API 功能介绍 在某个实例中部署后端API。 URI POST /v1/{project_id}/apic/instances/{instance_id}/livedata-apis/deploy 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是