检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
单击“上传文件”,上传MRS HBase配置文件。配置文件获取请参考获取MRS HBase配置文件。 获取MRS HBase配置文件: 参考下载用户认证文件,在MRS Manager下载用户认证文件,解压后得到“krb5.conf”和 “user.keytab”文件,即MRS HBase配置文件。 文件名只
如果查询到的状态为“Aborted”,则说明CDC的出站服务器状态异常。输入以下命令后按Enter键,再输入/按Enter键执行该命令手工启动出站服务器: BEGIN DBMS_XSTREAM_ADM.START_OUTBOUND(server_name => 'dbzxout');
权限。 机机交互用户名 填写连接MRS Hive的机机类型用户名。 上传配置文件 单击“上传文件”,上传MRS Hive配置文件。配置文件获取请参考获取MRS Hive配置文件。 获取MRS Hive配置文件 获取“krb5.conf”和“user.keytab”文件。 参考下载用户认证文件,在MRS
topic_messages_remained 队列可消费消息数 统计消费组指定队列可以消费的消息个数。 ≥0 单位:个 消费组 1分钟 topic_messages_consumed 队列已消费消息数 统计消费组指定队列当前已经消费的消息数。 ≥0 单位:个 消费组 1分钟 consu
PostgreSQL PostgreSQL连接器用于连接PostgreSQL数据库,负责建立和维护应用程序和PostgreSQL数据库之间的连接,并管理数据的传输。 PostgreSQL是一个特性齐全的开源的对象-关系型数据库。 PostgreSQL默认端口为5432,但是管理员可以根据需要将其更改为其他端口。
修改配置信息 为了方便,下文分生产与消费两个配置文件介绍。如果ROMA Connect实例开启了SASL认证,在Java客户端的配置文件中必须配置涉及SASL认证的相关信息,否则无法连接。如果没有使用SASL认证,请注释掉相关配置。 生产消息配置文件(对应生产消息代码中的mqs.sdk.producer
接入DWS数据源 接入Gauss100数据源 接入HANA数据源 接入HIVE数据源 接入MongoDB数据源 接入MySQL数据源 接入Oracle数据源 接入PostgreSQL数据源 接入Redis数据源 接入SQL Server数据源 父主题: 创建并开放数据API
oracle:oracle数据源类型 mysql:mysql数据源类型 mongodb:mongodb数据源类型 redis:redis数据源类型 postgresql:postgresql/opengauss数据源类型 hive:hive数据源类型 mssql:sqlserver数据源类型 sql
务。 步骤四:启动数据集成任务 数据集成任务创建后,“任务状态”为“停止”状态,此时任务不会执行,需先启动任务。 数据集成任务有两种启动方式: 启动任务计划,任务按照创建任务时所设置的计划执行。 在数据集成任务左侧勾选上要启动的任务,单击任务列表上方的“启动”,启动任务计划,然后等待任务按计划时间执行。
接入DM数据源 接入Gauss100数据源 接入HANA数据源 接入HIVE数据源 接入MongoDB数据源 接入MySQL数据源 接入Oracle数据源 接入PostgreSQL数据源 接入Redis数据源 接入SQL Server数据源 父主题: 开放数据API
边缘节点创建完成后,单击“下载边缘节点配置文件”下载包含边缘节点密钥等信息的配置文件。 备份下载的边缘节点配置文件中的“node.tar.gz”文件到本地。 如果用户侧虚拟机出现故障需要重置时,则需要使用备份的“node.tar.gz”文件。 配置文件下载后,待系统将边缘节点连接上云,
用前序节点中的数据。 函数工作流服务具有强大的数据处理能力,可应用于多种场景。其中一个使用场景为,当使用“数据源类型组件”从数据库(如MySQL)中查询数据时,对于BLOB等类型的数据(如图片),最终查询到的结果为byte数组形式。此时可以使用函数工作流服务,对从数据库查询到的数
安装方法。 安装Haveged(根据实际版本修改):rpm -ivh haveged-1.9.13-3.oe1.x86_64.rpm 开机启动:systemctl enable haveged 重启:service haveged restart 查看服务状态:service haveged
流任务的运行时间。 状态 流任务的运行状态。 (可选)配置访问日志,实现异常监控日志的存储。 如果组合应用未启动,请单击“启动并配置运行记录”,选择一个实例启动此组合应用。 如果组合应用已启动,单击“点击开启”弹出“运行记录配置”窗口,然后配置日志接入信息。 表2 配置访问日志 参数 说明
“全量定义”,即导出自定义后端的全部请求和服务信息。 导出类型 选择自定义后端的导出类型。 全量导出:导出所有自定义后端。 集成应用:导出指定集成应用下的自定义后端。 说明: 选择全量导出时,若不同集成应用下的自定义后端有相同的请求路径,则相同请求路径的自定义后端只能导出其中的一个。
单击“确定”,完成API定时任务的创建。 启动API定时任务。 API定时任务创建后,任务的“运行状态”为“初始化”,此时任务不会执行,需先启动任务。 在API定时任务列表中,单击任务右侧的“启动”,然后在确认弹窗中单击“确定”,启动任务。此时任务的“运行状态”变为“已启动”,并会根据配置的触发方式按计划执行定时任务。
完成后单击“确定”。 步骤三:发布应用 在界面的右上角单击“启动”,在启动弹窗中选择“区域”和“项目”,并勾选所使用的实例,完成后单击“确定”。 图6 启动组合应用 设计画布右上角提示启动成功,完成发布。 图7 启动成功 步骤四:验证结果 进入组合应用的编辑页面中,单击“Open
边缘节点创建完成后,单击“下载边缘节点配置文件”下载包含以上边缘节点密钥等信息的配置文件。 备份下载的边缘节点配置文件中的“node.tar.gz”文件到本地。 如果用户侧虚拟机出现故障需要重置时,则需要使用备份的“node.tar.gz”文件。 配置文件下载后,待系统将边缘节点连接上云
消息大小:512byte 消息目的端:MQS Topic 数据集成规格在以下条件中测试得出: 分别执行以下三个任务场景,每个场景3个并发任务: mysql-mysql任务场景 obs-obs任务场景 kafka-kafka任务场景 读写100W数据 数据迁移量1G 服务集成规格在以下条件中测试得出:
选择创建MQS到数据库的集成任务中接入的MySQL数据源。 选择执行语句类型 选择执行语句的类型,此处选择“SQL”。 高级设置 高级设置保持默认设置。 添加数据源后,在编辑器左侧选择数据源,然后您可以在右侧的语句编辑框中为数据源添加如下执行语句,从数据库中获取当前空余车位数量。 假设MySQL数据库中存储