检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
边缘云仅在识别到有效的边缘可用区时才显示。 软件开发工具包(Software Development Kit,简称SDK),也称为开发包或者开发工具包。SDK通常是由一个或多个软件开发工具组成的集合,用于帮助开发者创建、测试和部署软件应用程序。 此处选择“公有云”。 区域 选择数
中设备运行时产生的动态数据。 SDK SDK(Software Development Kit)是一些被软件工程师用于为特定的软件包、软件框架、硬件平台、操作系统等创建应用软件的开发工具的集合,一般而言SDK即开发Windows平台下的应用程序所使用的SDK。它可以简单地为某个程
境监测功能等。一般安置在机房里,由电源模块,传输模块,主控板、信道板,告警板组成。 图2 BBU:基带处理单元 室外天线接收和发送的都是射频信号,室内BBU接收和发送的都是光信号,因此需要通过RRU作为中间桥梁,对信号做相应处理。RRU是有源元器件,需要连接电源线供电。RRU和天线合设成为AAU(有源天线处理单元)。
(例如涉及国家秘密、商业机密、个人隐私数据的行业)打造的一体化产品,集成了xDM-F的应用运行态和流程引擎能力,在确保企业可以享受数据管理软件带来的便利和效率的同时,也可以维护其数据资产的安全和合规性。 前提条件 已购买xDM-F的通用SDK,具体操作请参见开通数据建模引擎。 生成SDK
控制应用运行态的访问权限。即只有该组织下的成员可登录此应用运行态使用数据服务。 我的组织:当前华为账号下创建的组织。 其他组织:当前账号下接收到的他人分享过来的组织。更多关于组织分享的操作请参见分享组织。 如果没有可选择的组织,单击“创建组织”进行创建,具体操作请参见创建组织。 运行服务管理员
基础版运行态登录全流程(边缘云) 边缘云场景下,您可将已完成构建和发布的应用部署到基础版数据建模引擎服务上。部署完成后,您或者企业不同部门的员工便可使用SSF提供的用户登录认证和用户管理能力,实现用户本地登录认证。 本章节详细介绍了边缘云场景下基础版应用运行态登录的全流程,包括部
控制应用运行态的访问权限。即只有该组织下的成员可登录此应用运行态使用数据服务。 我的组织:当前华为账号下创建的组织。 其他组织:当前账号下接收到的他人分享过来的组织。更多关于组织分享的操作请参见分享组织。 如果没有可选择的组织,单击“没有组织?去创建”进行创建,具体操作请参见创建组织。
控制应用运行态的访问权限。即只有该组织下的成员可登录此应用运行态使用数据服务。 我的组织:当前华为账号下创建的组织。 其他组织:当前账号下接收到的他人分享过来的组织。更多关于组织分享的操作请参见分享组织。 如果没有可选择的组织,单击“创建组织”进行创建,具体操作请参见创建组织。 运行服务管理员
进入步骤4:新增过滤条件阶段。 步骤4:新增过滤条件 设置过滤条件是为在调用API时,缩小查询结果范围,只检索符合过滤条件的数据。当API接收到请求时,可以根据已设置的过滤条件,如日期、关键字、ID或其他用户定义的标准等参数过滤数据。对于返回大型数据集的API ,设置有效过滤可以
自循环树形关系 又称“树形结构”,是数据对象之间存在着“一对多”的树形关系的数据结构,适用于数据间上下级的关联。例如,企业的组织结构、软件应用的结构、工作计划、项目管理等。 创建数据实体/关系实体时,通过勾选xDM-F内置的“树形结构”、“分类管理”、“文件夹管理”等能力实现。
所有过滤条件。 新增过滤条件组:单击“添加组”,新增过滤条件组。 删除过滤条件组:单击“删除组”,删除过滤条件组。 管理过滤条件 当API接收到请求时,可以根据已设置的过滤条件,只检索符合过滤条件的数据。 新增过滤条件:单击“添加规则”,添加过滤条件的属性、匹配方式、过滤条件值等。
错误码 当您调用API时,如果遇到“APIGW”开头的错误码,请参见API网关错误码进行处理。 状态码 错误码 错误信息 描述 处理措施 400 IDT.04000028 Param {0} is invalid. 请求参数输入错误 请修改相应的请求参数 400 IDT.04011004
提供应用内系统管理API以及模型生成的所有API的信息与请求示例,在应用部署后可调用。 华北-北京四 流程引擎 流程引擎是一种用于管理和执行业务流程的软件工具。您可以通过流程引擎的建模、编排、执行、监控等功能,将业务流程抽象成可执行的流程模板,并自动化执行流程,从而提高工作效率、降低成本、增强风险控制能力。
通过API方式分块上传文件 操作场景 工业数字模型驱动引擎-数据建模引擎(xDM Foundation,简称xDM-F)可以将待上传的文件分成多个分块分别上传,上传完成后再调用“file_mergeFiles”接口将这些分块合并成一个对象存储至某个数据模型中。 完成文件的分块上传