检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何使用数据模型图谱 在“数据模型管理 > 数据模型图谱”页面,您可以进行如下操作: 移动/放大/缩小数据模型图谱 移动数据模型图谱 在“图谱”的任意空白处,长按鼠标左键的同时移动鼠标,即可移动图谱。 放大/缩小数据模型图谱 在“图谱”内,上下滚动鼠标滚轮,即可放大或缩小图谱大小。
创建一个空白流程元模板 面对企业产品数据种类繁多(例如,部件可分为标准件、自制件、采购件等,图纸可分为装配图、零件图、工程图、二维图等,技术资料可分为技术通知单、设计规范、说明书等)、格式多样、流程复杂差异大、涉及部门众多且层级复杂等特点,工业数字模型驱动引擎-数据建模引擎(xDM
反向建模概述 反向建模是从数据库物理表到数据模型的映射,相对于将数据模型映射到数据库物理表的正向建模。 当您的本地服务器中已有数据库和大量物理表,且希望通过工业数字模型驱动引擎-数据建模引擎(xDM Foundation,简称xDM-F)统一管理所有模型时,可使用xDM-F的反向
创建xDM-F同步任务 操作场景 通过xDM-F同步任务,可将对应xDM-F应用运行态中xDM-F租户下模型和实例数据同步到LinkX-F系统中的指定租户下,供后续进行数据索引、分析、追溯时使用。 从xDM-F应用运行态同步过来的模型与LinkX-F中自创建模型的使用方式相同。如
数据建模引擎SDK概述 工业数字模型驱动引擎-数据建模引擎(xDM Foundation,简称xDM-F)为开发者提供数据建模引擎运行SDK和流程引擎流程SDK,方便开发者将xDM-F的能力快速集成到自己的应用中。 约束与限制 目前流程引擎流程SDK仅支持在通用服务器中部署,不支持容器化部署。
数据模型概述 数据模型是对企业的数据元素及其彼此之间关系的可视化表示。 模型通过帮助在相关业务流程的上下文中定义和精心组织数据,可以为开发有效的信息系统提供支持。 借助这些模型,业务和技术资源可协同决定整个组织中数据的存储、访问、共享、更新和使用方式。 基于元模型驱动(2种元模型
状态码 状态码如表1所示: 表1 状态码 状态码 编码 错误码说明 100 Continue 继续请求。 这个临时响应用来通知客户端,它的部分请求已经被服务器接收,且仍未被拒绝。 101 Switching Protocols 切换协议。只能切换到更高级的协议。 例如,切换到HTTP的新版本协议。
索引定义管理 操作场景 本文指导您在应用运行态为搜索服务管理索引。 前提条件 已登录应用运行态。 添加索引 在左侧导航栏中,单击“搜索服务管理 > 搜索服务定义”,进入搜索服务管理页面。 找到需要添加索引的搜索服务,单击。 您也可以进入搜索服务详情页面后,单击“编辑”。 在展开的
步骤3:提交事务型任务 操作场景 工业数字模型驱动引擎-数据建模引擎(xDM Foundation,简称xDM-F)提供同步提交和异步提交两种提交方式。 URI 同步提交 URI格式: PUT http://{Endpoint}/rdm_{appID}_app/services/
查询接口概述 数据实体和关系实体是工业数字模型驱动引擎-数据建模引擎(xDM Foundation,简称xDM-F)原子接口的承载体,支持多种具有查询功能的接口。其中: 数据实体支持调用find、get、batchget、query、count、list和select接口,可进行单字段排序或多字段排序。
为用户任务设置常规信息 一个流程由触发器和若干个动作节点组成。其中,动作节点是将一系列业务活动抽象为不同类型的流程工具,通过多种类型的流程工具来完成流程中需要进行的数据操作、通知、审批等任务。 设置提交任务 提交任务是流程编辑页面中流程发起的节点,也是一个流程的开始。一个流程中只能存在一个提交任务。
构造请求 本节介绍REST API请求的组成,并以调用IAM的管理员创建IAM用户来说明如何调用API,该API获取用户的Token,Token可以用于调用其他API时鉴权。 您还可以通过这个视频教程了解如何构造请求调用API:https://bbs.huaweicloud.com/videos/102987。
管理流程引擎的流程实例 流程运行服务中的“流程管理 > 流程实例”是为运行服务管理员提供的流程管理功能。运行服务管理员可以在此页面查询当前应用的所有流程实例,并对执行异常的流程实例进行干预操作。例如,将已提交的流程进行批量挂起或批量删除,选择某一条流程实例进行挂起/激活、转审、删除等操作。
通过API方式分块上传文件 操作场景 工业数字模型驱动引擎-数据建模引擎(xDM Foundation,简称xDM-F)可以将待上传的文件分成多个分块分别上传,上传完成后再调用“file_mergeFiles”接口将这些分块合并成一个对象存储至某个数据模型中。 完成文件的分块上传