检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Engine和安装Docker Compose为ELK所部署的服务器安装Docker和Docker Compose。 参考安装Docker Compose为APIC的SHUBAO组件所在节点安装Docker Compose。 在本地PC上,切换root用户,并执行以下命令拉取Docker镜像。
批量启动或停止任务 功能介绍 批量启动或停止任务。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{project_id}/fdi/instanc
执行以下命令启动Filebeat。 docker-compose up -d 部署ELK 登录ELK所部署的服务器,切换root用户。 执行以下命令启动ELK。 cd /ELK docker-compose up -d 执行以下命令,判断ElasticSearch是否启动成功。 curl
在任务管理页面中启动任务,您可以根据集成模式、任务状态和任务名称等筛选查找要启动的任务。 数据集成任务有两种启动方式。 启动任务,任务按照所属集成模式的机制运行。 在数据集成任务左侧勾选上要启动的任务,单击任务列表上方的“启动”,启动任务。任务启动成功后,“任务状态”变为“启动”。 手工
您可以使用平台提供的技术架构或者自身创建的技术架构,通过创建采集任务,完成对技术模型的采集。采集任务创建后,您可以查看和管理采集任务,包括任务的启动、执行、编辑配置信息等。 前提条件 已接入数据源。 操作步骤 登录ROMA Connect,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。
executes failed.Writer data to kafka failed”错误。 解决方案 等待定时任务下次任务调度,或者停止任务再重新启动任务。 父主题: 数据集成任务
/filebeat/filebeat.yml touch /filebeat/docker-compose.yml 其中,log目录用于存储Filebeat收集到的日志数据以及其它元数据信息,即使容器Filebeat被删除并重新启动,会继续读取该目录中的内容(如registry),并在收集数据时
台虚拟机。 安装Docker。 Docker版本必须高于17.06,推荐使用18.06.3版本。请勿使用18.09.0版本Docker,如果已使用此版本,请尽快升级。离线安装包获取与安装请参考离线版软件获取与安装方法。 Docker安装完成后,可以执行docker -v命令检查D
存大小、Docker是否安装及版本、Glibc是否安装及版本和是否已被IEF纳管)、配置DNS、配置hosts解析、配置Docker仓库、数据盘、日志盘磁盘挂载和IEF纳管。 注意: 纳管脚本不包含Docker安装和维护,执行纳管脚本前需要在每台机器上自行安装Docker 。 纳
此配置项仅在创建任务后,重新“编辑”任务才可见。 启动组合任务时,如果有新添加到任务中的表映射,此开关用于如下控制: 启用此开关,则任务会先全量同步新增表的存量数据,全量同步结束后接着增量同步。 禁用此开关,则任务不会同步新增表的存量数据,只会同步任务启动后的增量数据。 配置映射关系,即源端和目标端的数据源信息。
表名存在乱码导致Camel访问数据库失败 原因分析 访问数据库使用参数不正确,导致组合任务启动失败,任务终止。 解决方案 检查数据库中是否有表名存在乱码的情况,如果存在请和数据库管理员沟通后删除乱码表名的表,然后重新启动任务。 父主题: 数据集成组合任务
任务的启动,执行,配置信息等。 启动采集任务 登录ROMA Connect,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“应用业务模型ABM > 模型采集 > 采集任务”。在任务列表中找到需要启动的任务,单击“操作”栏中的“启动”即可启动任务。
使用Filebeat+ELK实现Site协同版实例的API日志监控 方案概述 资源规划 准备Docker环境和镜像 修改Filebeat和ELK配置 部署Filebeat和ELK 配置索引生命周期策略(可选) 使用Kibana查看日志
Site实例规格变更前,需要准备以下资源: 虚拟机:与之前机器相同规格且相同架构的Linux机器。 工具:需要安装Docker、NTP、Haveged服务,Docker安装请参考安装Docker,NTP配置请参考时间同步,Haveged的安装请参考安装Haveged。浏览器用于登录华为云控制台,要求Chrome
Access Key 当前账号的AK(Access Key ID)。请参考访问密钥获取AK,如果已生成过AK/SK,找到原来已下载的AK/SK文件,文件名一般为:credentials.csv。 Secret Access Key 当前账号的SK(Secret Access
MRS Hive写入时数据全部写在第一个字段里 原因分析 建表时没有使用列分隔符。 解决方案 在数据库中执行以下命令设置分隔符: alter table 表名set serdeproperties('field.delim'='分隔符') 父主题: 数据集成任务
Site协同版实例规格变更包含站点规格变更和实例规格变更两部分。其中实例规格变更时,又可分为新站点容器扩容和已有容器升级两种场景。 新站点容器扩容:会在新增节点上部署新的服务容器。 已有容器升级:会对已有容器的CPU和内存分配有较大的改动,大部分组件都会有变化。 注意事项 部分组件在实例规格变
如果查询到的状态为“Aborted”,则说明CDC的出站服务器状态异常。输入以下命令后按Enter键,再输入/按Enter键执行该命令手工启动出站服务器: BEGIN DBMS_XSTREAM_ADM.START_OUTBOUND(server_name => 'dbzxout'); END; 父主题:
FDI通过公网对接其他租户的MRS HIVE如何配置? 首先需要将MRS的IP全部绑定EIP,然后在MRS配置文件中的私网IP全部替换成EIP,再到hdfs-site.xml文件中添加一个配置项“dfs.client.use.datanode.hostname”,值设为“true”。
如关系型数据库、消息队列、API、NoSQL、对象存储等,这些数据源可以直接在ROMA Connect中使用,您只需要接入数据源,创建并启动数据集成任务,就可以将您的源端数据集成到目标端。 如果ROMA Connect支持的数据源类型无法接入您使用的数据源,您可以自行开发一个数