检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
重新连接数据建模引擎 找到待操作的数据连接,在其后单击“重新连接”。 断开连接数据建模引擎 在数据连接管理窗口中取消勾选已连接的数据建模引擎,并根据界面提示断开连接。 在数据连接列表中勾选已连接的数据建模引擎,在列表上方单击“断开”,并根据删除连接提示弹窗提示断开连接。 父主题:
指定读权限需要的连接串。 数据只读用户名:必填,用于指定只读权限连接到该数据源的用户名。 数据只读密码:必填,用于指定只读权限连接到该数据源的密码。 填写完成后单击“连接测试”,系统会根据所填信息自动进行连接检查。 测试连接成功:系统提示“连接成功”。 测试连接失败:系统提示“测
true:开启Kafka,默认为true。开启后,需要设置“KAFKA_BOOTSTRAP_SERVERS”参数。 false:关闭Kafka。 true KAFKA_BOOTSTRAP_SERVERS 仅当“kafka.init”为“true”时,此配置参数必选。 Kafka的连接地址。
下: 表1 部署资源 资源 版本 CPU(核数) 内存(G) 数据盘(G) 数量 iDME运行态实例 - 4 8 200 2 分布式消息服务 Kafka 2.3.0 4 8 200 3 云数据库 RDS for PostgreSQL 12.11 32 128 800 2 分布式缓存服务
Cloud,VPC) 实现iDME服务隔离的私有云空间。 - 分布式消息服务Kafka版(Distributed Message Service for Kafka) 通过分布式消息服务Kafka版完成消息的发布与消费。 发布 消费 分布式消息服务RocketMQ版(Distributed Message
Service),指将云服务或用户私有服务配置为VPC终端节点支持的服务,可以被终端节点连接和访问。 终端节点(VPCEP Client),用于在VPC和终端节点服务之间建立便捷、安全、私密的连接通道。 如图1所示,仅支持终端节点到终端节点服务所在后端资源的单向访问。在本方案中,图
IAM_END_POINT=http://iam.cn-south-4.myhuaweicloud.com:31943 # KAFKA集群信息 export KAFKA_BOOTSTRAP_SERVERS=192.168.50.13:9092,192.168.50.14:9092,192
后续操作 完成iDME部署后,您可以进行如下操作。 启动iDME服务 iDME提供了两种启动方式。 方式一:通过脚本启动iDME iDME运行态包分为4个目录:bin、config、lib和suggestion_sql。其中,启动iDME服务涉及的jar包均在lib目录下。iDME的主启动类为com
true ssf.login.oauth2.client-id 是 OrgID的Client ID。 获取方法请参见获取组织凭证。 abc123 ssf.login.oauth2.client-secret 是 OrgID的Client Secret。 获取方法请参见获取组织凭证。
1:8635/sitautotest?authSource=admin MONGODB_DATABASE=test # Kafka配置 kafka.init=true KAFKA_BOOTSTAP_SERVERS=127.0.0.1:9094, 127.0.0.2:9094 # OBS配置
基于图形化方式编排API 方案概述 实施步骤
不仅效率低,而且查不到故障件的历史装配关系,出现追溯遗漏。一般情况下,在服务器存储硬件维护中,每周都有2~3次追溯需求。如果采用手工排查方式,计算维护人员、存储维护人员及MQE需要在CMES、悍马等多个系统手工导出数据,涉及十亿级数据量,使用Excel分析,简单的追溯每次至少1天时间;如果追溯的条件复杂(
1:8635/sitautotest?authSource=admin MONGODB_DATABASE=test # Kafka配置 kafka.init=true KAFKA_BOOTSTAP_SERVERS=127.0.0.1:9094, 127.0.0.2:9094 # OBS配置
通过API方式上传简单文件 功能介绍 通过“文件管理”接口“upload_uploadFile”可以将本地的文件上传至工业数字模型驱动引擎(Industrial Digital Model Engine,简称iDME)中。完成文件上传后,可在调用数据实例的创建/更新接口时,将文件
通过API方式分块上传文件 操作场景 工业数字模型驱动引擎-数据建模引擎(xDM Foundation,简称xDM-F)可以将待上传的文件分成多个分块分别上传,上传完成后再调用“file_mergeFiles”接口将这些分块合并成一个对象存储至某个数据模型中。 完成文件的分块上传
实施步骤 准备工作 步骤1:服务定义 步骤2:服务开发 步骤3:服务测试 步骤4:服务发布 步骤5:服务调用 父主题: 基于图形化方式编排API
通过API方式下载文件 功能介绍 通过“文件管理”接口“file_downloadFile”可以下载已上传的文件。 URI URI格式: GET http://{Endpoint}/rdm_{appID}_app/services/rdm/basic/api/file/downloadFile
版本:Elasticsearch7.10.2 用于语义搜索、分词搜索等操作。 Kafka 分布式消息服务Kafka版 否 如果不选取,应用运行态将不支持“同步至LinkX-F”功能。 规格:4U8G(cluster) 版本:kafka2.7 用于同步数据至LinkX-F。 物理磁盘 对象存储(OBS)
可以通过API方式使用应用设计态吗? 工业数字模型驱动引擎-数据建模引擎(xDM Foundation,简称xDM-F)的应用设计态仅支持可视化、无码化的前端页面进行数据建模;应用运行态开放应用下所有API,支持用户通过可视化前端页面和API方式使用xDM-F。 父主题: 数据建模引擎相关问题
应用运行态,登录方式不同。 体验版应用运行态 体验版应用运行态仅支持通过控制台方式登录,具体操作请参见体验版运行态登录全流程。 基础版应用运行态 根据基础版数据建模引擎部署位置不同,对应的应用运行态的登录方式有所不同。 表1 应用运行态登录方式 部署位置 登录方式 IP地址 使用场景