检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
/{api_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方式请参见API参考的“附录 > 获取项目ID”章节。 instance_id 是 String 实例ID api_id 是 String API的编号 请求参数
Hive的配置文件中使用的私网IP,私网IP与FDI数据面IP不通导致连接失败。 HDFS URL填写了根目录hdfs:///hacluster,机机交互用户名填写的用户不具备管理员权限导致连接失败。 解决方案 将MRS Hive的服务端机器绑定EIP,在配置文件中将IP换成EIP,在hdfs-site
行评估,以准备相关服务器资源。 API调用日志文件最大为200MB,达到上限后会自动生成新的日志文件,以每天产生5个或10个新日志文件为例,Filebeat和ELK对服务器的资源需求如表1所示。 表1 服务器资源需求 组件 日志文件数 CPU 内存 磁盘 Filebeat 5个 1核
导入导出组合应用 ROMA Connect支持通过文件的方式导入导出组合应用。 导入组合应用:支持导入JSON格式组合应用文件。 导出组合应用:支持导出JSON格式组合应用文件。 约束与限制 带有自定义连接器的组合应用导出后,暂不支持导入到其他环境使用。 连接器的连接实例信息不支持导出。
Python SDK使用说明 操作场景 使用Python语言调用APP认证的API时,您需要先获取SDK,然后新建工程,最后参考调用API示例调用API。 前提条件 已获取API的调用信息,具体请参见开发准备。 已安装开发工具和Python开发语言环境,具体请参见开发准备。 Py
FDI通过公网对接其他租户的MRS HIVE如何配置? 首先需要将MRS的IP全部绑定EIP,然后在MRS配置文件中的私网IP全部替换成EIP,再到hdfs-site.xml文件中添加一个配置项“dfs.client.use.datanode.hostname”,值设为“true”。
导入集成资产 概述 通过ROMA Connect的资产导入功能,把获取到的集成资产包快速导入ROMA Connect实例。 前提条件 已获取集成资产包。 在资产迁移场景,已修改实例配置参数。 操作步骤 在实例控制台的“实例信息”页面,单击右上角的“导入资产”。 在“导入资产”弹窗
Hive数据源时,上传的配置文件中全部用的EIP,Hosts里面也配置好IP与Hostname,但是在上传文件时HDFS的Master节点返回的node节点的IP为内网IP,所以连接不通,导致FDI任务执行异常。 解决方案 修改在创建MRS Hive数据源时上传的hdfs-site.xml文件中,在hdfs-site
仅当“鉴权方式”选择“AK/SK”时需要配置。 当前账号的AK(Access Key ID)。请参考访问密钥获取AK,如果已生成过AK/SK,找到原来已下载的AK/SK文件,文件名一般为:credentials.csv。 Secret Access Key 仅当“鉴权方式”选择“AK/SK”时需要配置。
下载对象、删除对象、创建桶、删除桶、获取桶元数据、批量删除指定桶的对象、上传对象 对象名 请输入对象名称,例如123.png。当前仅支持下载txt,csv,png,jpg和jpeg格式的文件。obs中没有文件系统中的文件和文件夹概念,对象名称中的“/”是用来模拟文件系统中的文件夹概念的,“test/123
d-command 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方式请参见API参考的“附录 > 获取项目ID”章节。 最小长度:0 最大长度:32 instance_id 是 String 实例的ID。 最小长度:0 最大长度:36
数据根字段 指从源端获取到的JSON或XML格式数据中,元数据集上层公共字段的路径。此处不设置。 数据类型 选择从Kafka数据源获取的数据格式类型,需要与Kafka实际存储的数据格式一致。 消费偏移设置 选择集成最早获取的消息数据还是最新获取的消息数据。 元数据 指从源端获取到的JS
1规范。 函数后端支持的脚本大小最大为32KB。 数据后端开发要求: 若数据后端执行语句查询获取的数据量较大,建议携带offset和limit参数进行分页,避免因响应数据太大导致响应超时。使用方式如下: select * from table01 limit '${limit}'
充当网关或代理的服务器,从远端服务器接收到了一个无效的请求。 503 Service Unavailable 被请求的服务无效。 建议直接修改该请求,不要重试该请求。 504 Gateway Timeout 请求在给定的时间内无法完成。客户端仅在为请求指定超时(Timeout)参数时会得到该响应。
接入数据源 概述 在创建数据API之前,您需要先接入数据源,确保可以正常从数据源读取数据。根据数据源类型的不同,数据源的接入配置有所差异。 前提条件 在接入数据源前,请确保ROMA Connect实例与您的数据源所在网络互通。 若ROMA Connect实例与数据源在相同VPC内时,可直接访问数据源。
单击“导入api”,弹出“添加API资产”弹窗。 选择“从ROMA中导入”或“外部上传”,进行API导入。 从ROMA中导入 选择region、ROMA实例、分组。 选择API路径或者API名称。 勾选需要导入的API,单击“确定”。 外部上传 单击“添加文件”,从本地导入所需的swagger文件,单击“确定”。 切换到API“设计”页签,
选择执行语句的类型,此处选择“SQL”。 高级设置 高级设置保持默认设置。 添加数据源后,在编辑器左侧选择数据源,然后您可以在右侧的语句编辑框中为数据源添加如下执行语句,从数据库中获取当前空余车位数量。 假设MySQL数据库中存储车位信息和车位状态信息的数据表名为“ParkingData”,表中车位状态字段为“Status”。
导出Topic”,导出Topic文件到本地。 导出所有Topic:单击“导出所有Topic”,导出Topic文件到本地。 在导出Topic弹窗中选择要导出文件的格式,然后单击“导出”,导出Topic文件到本地。 当前支持导出xlsx、xls和csv格式文件。若Topic数据中含有英文逗号(
使用Python语言进行后端服务签名时,您需要先获取SDK,然后导入工程,最后参考校验后端签名示例校验签名是否一致。 Python SDK仅支持hmac类型的后端服务签名。 前提条件 已在控制台创建签名密钥,并绑定API,具体请参见配置后端服务的签名校验。 已获取签名密钥的Key和Secret,具体请参见开发准备。
解压Kafka命令行工具和客户端证书。 进入文件压缩包所在的目录,然后执行以下命令解压文件。 解压命令行工具文件: tar -zxf kafka_tar 其中,kafka_tar为Kafka命令行工具压缩包的名称。 解压客户端证书文件: unzip cert_zip 其中,cert_zip为客户端证书文件压缩包的名称。