华为云用户手册

  • 查看元模型 用户根据运营中心元模型信息架构图,查看元模型数据和关系数据详情。 进入DMAP数小二实例控制台界面。 登录 交换数据空间 控制台,在页面左侧导航栏选择“DMAP数小二”,然后选择DMAP实例,单击“开始使用”。 租户可执行此步骤。 登录DMAP数小二。 组织成员可执行此步骤。 单击“运营中心”,查看元模型数据和关系数据详情,如图1。 图1 元模型中心 以信息架构为例说明,如图2,单击“信息架构”,架构图中信息架构会高亮展示,单击架构图中的实体节点,查看实体信息、特征、关系等。 图2 元模型信息架构
  • 发布图层新版本 进入DMAP数小二实例控制台界面。 登录交换数据空间控制台,在页面左侧导航栏选择“DMAP数小二”,然后选择DMAP实例,单击“开始使用”。 租户可执行此步骤。 登录DMAP数小二。 组织成员可执行此步骤。 单击“数据图层”,进入数据图层页面中。 在图层报告中,首次保存即“草稿”状态的报告或首次发布审批通过即“已发布”的报告在图层报告列表“当前版本”列展示为V1.0版本。 “草稿”状态的报告在首次发布审批通过后“当前版本”列展示为V1.0。 单击状态为“已发布”的报告操作列的“编辑”,参考新增数据图层修改报告内容。 图层报告修改完成后,可根据需求预览、保存或发布。 预览:单击“预览”,在线预览已设计好的数据图层报告。 保存:单击“保存”,当前已设计的数据图层保存成功,同时,系统每隔5分钟会自动执行保存的操作,此时,在图层报告列表操作列展示为“编辑草稿”、“发布新版本”,单击“发布新版本”,参考发布数据图层报告再次发起报告发布申请。 发布:单击“发布”,参考发布数据图层报告再次发起报告发布申请。 再次发起的报告发布申请审批通过后,在图层报告列表“当前版本列”展示为V2.0版本,如多次修改图层并发布审批通过后,系统会依次展示V3.0、V4.0等。
  • 查看我的申请 进入DMAP数小二实例控制台界面。 登录交换数据空间控制台,在页面左侧导航栏选择“DMAP数小二”,然后选择DMAP实例,单击“开始使用”。 租户可执行此步骤。 登录DMAP数小二。 组织成员可执行此步骤。 在页面右上角单击,然后选择“我的申请”,进入“我的申请”页面。 在“我的申请”页面查看“申请中”或“已完成”的任务。 单击“申请中”的任务标题,查看任务详情。 单击操作列的“撤销”,撤销申请中的任务。如任务已被撤销,此时,系统展示操作列为“删除”,单击“删除”,任务即被删除掉。 图1 “申请中”的任务 单击“已完成”的任务标题,查看已完成的任务详情。 图2 “已完成”的任务
  • 更多操作 业务单元创建完成后,用户可以根据需要对业务单元各层级实体进行修改、删除等操作,具体操作如表4所示。 表4 操作说明 操作 说明 编辑业务领域信息 在业务单元目录处单击业务单元名称,在界面右侧业务单元名称区域单击“编辑”。 参考表1修改业务单元信息,单击“确定”。 删除业务领域 在业务单元目录处单击业务单元名称,在界面右侧业务单元名称区域单击“删除”。 在弹框中单击“确定”。 修改二层组织信息 在业务单元目录处单击业务单元名称,在界面右侧关联二层组织区域单击操作列的“编辑”,参考表2修改二层组织信息,单击“确定”。 在业务单元目录处单击二层组织名称,在界面右上角单击“编辑”,参考表2修改二层组织信息,单击“确定”。 删除二层组织 在业务单元目录处单击业务单元名称,在界面右侧关联二层组织区域单击操作列的“删除”,在弹框中单击“确定”。 在业务单元目录处单击二层组织名称,在界面右上角单击“删除”,在弹框中单击“确定”。 修改三层组织信息 在业务单元目录处单击二层组织名称,在界面右侧关联三层组织区域单击操作列的“编辑”,参考表3修改三层组织信息,单击“确定”。 在业务单元目录处单击三层组织名称,在界面右上角单击“编辑”,参考表3修改三层组织信息,单击“确定”。 删除三层组织 在业务单元目录处单击二层组织名称,在界面右侧关联三层组织区域单击操作列的“删除”,在弹框中单击“确定”。 在业务单元目录处单击三层组织名称,在界面右上角单击“删除”,在弹框中单击“确定”。
  • 更多操作 参与者创建完成后,用户可以根据需要对参与者进行修改、删除等操作,具体操作如表2所示。 表2 操作说明 操作 说明 修改参与者信息 在参与者目录处单击参与者名称,在界面右侧参与者名称区域单击“编辑”。 参考表1修改参与者信息,单击“确定”。 删除参与者 在参与者目录处单击参与者名称,在界面右侧参与者名称区域单击“删除”,在弹框中单击“确定”。 解绑角色 在参与者目录处单击参与者名称,在界面右侧关联角色区域列表操作列单击“解绑”,在弹框中单击“确定”。
  • 更多操作 价值流创建完成后,用户可以根据需要对各价值流以及价值流阶段进行修改、删除等操作,具体操作如表3所示。 表3 操作说明 操作 说明 修改价值流信息 在价值流目录处单击价值流名称,在界面右侧价值流名称区域单击“编辑”。 参考表1修改价值流信息,单击“确定”。 删除价值流 在价值流目录处单击价值流名称,在界面右侧价值流名称区域单击“删除”,在弹框中单击“确定”。 解绑组织 在价值流目录处单击价值流名称,在界面右侧关联组织区域单击“解绑”,在弹框中单击“确定”。 修改价值流阶段信息 在价值流目录处单击价值流名称,在界面右侧关联价值流阶段区域,价值流阶段列表以列表方式展示时,单击价值流阶段列表操作列“编辑”,参考表2修改价值流阶段信息,单击“确定”。 在价值流目录处单击价值流阶段名称,在界面右侧价值流阶段名称区域单击“编辑”,参考表2修改价值流阶段信息,单击“确定”。 删除价值流阶段 在价值流目录处单击价值流名称,在界面右侧关联价值流阶段区域,价值流阶段列表以列表方式展示时,单击价值流阶段列表操作列“删除”,在弹框中单击“确定”。 在价值流目录处单击价值流阶段名称,在界面右侧价值流阶段名称区域单击“删除”,在弹框中单击“确定”。 解绑上一价值流阶段 在价值流目录处单击价值流阶段名称,在界面右侧关联上一价值流阶段区域单击“解绑”,在弹框中单击“确定”。 解绑下一价值流阶段 在价值流目录处单击价值流阶段名称,在界面右侧关联下一价值流阶段区域单击“解绑”,在弹框中单击“确定”。 解绑业务能力 在价值流目录处单击价值流阶段名称,在界面右侧关联业务能力区域列表操作列单击“解绑”,在弹框中单击“确定”。 解绑参与者 在价值流目录处单击价值流阶段名称,在界面右侧关联参与者区域列表操作列单击“解绑”,在弹框中单击“确定”。
  • Zookeeper日志示例以及字段含义 2024-05-06 10:28:25,123 [myThread-1] INFO org.apache.zookeeper.server.ZooKeeperServer - Accepted socket connection from /192.168.1.100:56789 表1 Zookeeper日志字段说明 字段 说明 示例 时间戳 日志生成的具体时间,以yyyy-MM-dd HH:mm:ss,SSS的格式展示。 2024-05-06 10:28:25,123 线程ID 生成该日志的线程ID。 myThread-1 日志级别 常见的日志级别包括DEBUG(调试)、INFO(信息)、WARN(警告)和ERROR(错误)等。 INFO 日志来源 日志是由org.apache.zookeeper.server.ZooKeeperServer这个类生成的。 org.apache.zookeeper.server.ZooKeeperServer 日志内容 - Accepted socket connection from /192.168.1.100:56789 ZooKeeper服务器接受了一个来自IP地址192.168.1.100、端口号56789的socket连接。
  • 日志位置 ZooKeeper的系统日志文件(也称为运行日志或应用日志)的位置通常取决于ZooKeeper的配置。可以通过log4j.properties文件中的配置来指定。如log4j.properties 中的zookeeper.log.dir配置。在log4j.properties文件中,您可以找到一个名为zookeeper.log.dir的配置项,它指定了日志文件的目录。例如: zookeeper.log.dir=/path/to/zookeeper/logs
  • 日志位置 在Nginx配置文件中,您可以通过指令来设置访问日志和错误日志的存放位置和格式。例如: http { ... log_format main '$remote_addr - $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"'; server { ... access_log /var/log/nginx/access.log main; error_log /var/log/nginx/error.log warn; ... } } 在这个例子中,log_format指令定义了一个名为main的日志格式,然后在server块中使用access_log指令指定了访问日志的存放位置 /var/log/nginx/access.log,错误日志被存放在/var/log/nginx/error.log路径下,并且日志级别被设置为warn。Nginx支持多种日志级别,包括debug、info、notice、warn、error、crit和alert。
  • Nginx日志示例以及字段含义 介绍访问日志和错误日志的示例和字段说明。 表1 访问日志字段说明 参数 说明 示例 $remote_addr 客户端地址。 211.28.65.253 $remote_user 客户端用户名称。 -- $time_local 访问时间和时区。 18/Jul/2012:17:00:01 +0800 $request 请求的URI和HTTP协议。 "GET /article-10000.html HTTP/1.1" $http_host 请求地址,即浏览器中您输入的地址(IP或 域名 )。 www.wang.com 192.168.100.100 $status HTTP请求状态。 200 $upstream_status upstream状态。 200 $body_bytes_sent 发送给客户端文件内容大小。 1547 $http_referer url跳转来源。 https://www.example.com/ $http_user_agent 用户终端浏览器等信息。 "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; SV1; GTB7.0; .NET4.0C; $ssl_protocol SSL协议版本。 TLSv1 $ssl_cipher 交换数据中的算法。 RC4-SHA $upstream_addr 后台upstream的地址,即真正提供服务的主机地址。 10.10.10.100:80 $request_time 整个请求的总时间。 0.205 $upstream_response_time 请求过程中,upstream响应时间。 0.002 错误日志示例: 2023/07/10 17:00:00 [error] 12345#12345: *1 recv() failed (104: Connection reset by peer) while reading response header from upstream, client: 192.168.1.100, server: example.com, request: "GET /api/data HTTP/1.1", upstream: "http://10.0.0.1:8080", host: "example.com 表2 错误日志字段说明 示例 说明 2023/07/10 17:00:00 错误发生的时间。 [error] 表示这是一个错误日志。 12345#12345 进程ID。 *1 连接的编号。 recv() failed (104: Connection reset by peer) while reading response header from upstream 错误信息,表明在从上游读取响应头时接收失败,错误原因是“连接被对方重置”。 client: 192.168.1.100 客户端的IP地址。 server: example.com 服务器的名称。 request: "GET /api/data HTTP/1.1" 请求的方法和路径。 upstream: "http://x.x.x.x:8080" 上游服务器的地址。 host: "example.com" 请求的主机名。
  • iis日志示例以及字段含义 #Software: Microsoft Internet Information Services 10.0 #Version: 1.0 #Date: 2023-09-21 02:59:24 #Fields: date time s-ip cs-method cs-uri-stem cs-uri-query sc-status sc-substatus sc-win32-status time-taken 2023-09-21 02:59:24 192.168.1.1 GET /index.html - 301 0 0 123 2023-09-21 02:59:25 192.168.1.1 GET /index.html/ 403 0 2 56 表1 iis日志字段说明 字段 说明 示例 #Software 生成日志的软件信息。 Microsoft Internet Information Services 10.0 #Version 日志文件的版本信息。 1.0 #Date 日志开始记录的日期和时间。 2023-09-21 02:59:24 #Fields 定义日志条目的字段。 date time s-ip cs-method cs-uri-stem cs-uri-query sc-status sc-substatus sc-win32-status time-taken date 请求发生的日期。 2023-09-21 time 请求发生的时间。 02:59:24 s-ip 源IP地址,即发起请求的客户端的IP地址。 192.168.1.1 cs-method 请求的HTTP方法。 GET cs-uri-stem 请求的URL路径。 /index.html cs-uri-query 请求的URI查询字符串。 在此示例中,第一个请求的查询字符串为空。 sc-status HTTP状态码,表示服务器的响应状态。 301 sc-substatus 子状态码,提供有关HTTP状态码的更多详细信息。 0 sc-win32-status Win32状态码,表示与HTTP状态码相关的Windows系统错误代码。 在此示例中,Win32状态码为0或2,表示没有错误或特定的系统错误。 time-taken 请求从开始到结束所花费的时间(以毫秒为单位)。 123
  • Kafka日志示例以及字段含义 由于Kafka本身并不直接提供系统日志的详细格式或字段定义,因为这部分可能会根据使用的日志框架而有所不同,例如 Log4j,所以本文提供一个基于典型日志框架(如 Log4j)的示例,并对其中的一些通用字段进行解析。 系统日志示例。 2023-10-23 15:33:45,123 INFO [KafkaServer id=0] onBrokerStartup (KafkaServer.scala:220) starting 2023-10-23 15:33:45,567 WARN [ReplicaManager broker=0] topic=my_topic partition=0 Broker 1 disconnected; no more in-sync replicas 2023-10-23 15:33:46,987 ERROR [Controller id=0] onControllerFailover (KafkaController.scala:678) Error during controller failover java.lang.RuntimeException: Failed to elect new leader for partition [my_topic,0] at kafka.controller.KafkaController $$ anonfun$onControllerFailover$1 $$ anonfun$apply$mcV$sp$1.apply$mcV$sp(KafkaController.scala:629) at kafka.controller.KafkaController $$ anonfun$onControllerFailover$1 $$ anonfun$apply$mcV$sp$1.apply(KafkaController.scala:609) at kafka.controller.KafkaController $$ anonfun$onControllerFailover$1 $$ anonfun$apply$mcV$sp$1.apply(KafkaController.scala:609) ... (stack trace continues) 字段含义。 在上面的示例中,第一个日志条目是KafkaServer在启动时产生的信息日志;第二个是一个警告,表明某个分区的一个同步副本(in-sync replica)与broker断开了连接;第三个是一个错误日志,表明在控制器故障转移期间发生了错误,并尝试为某个分区选择新的领导者时失败了。 表1 字段含义 字段 说明 示例 时间戳 日志条目的生成时间。 2023-10-23 15:33:45,123 日志级别 如INFO、WARN、ERROR等,表示日志条目的重要性或紧急性。 INFO 线程或进程信息 提供了产生日志的上下文,如KafkaServer的ID或ReplicaManager的broker ID。 [KafkaServer id=0] 日志来源 指示了日志条目的来源函数和代码位置。 onBrokerStartup (KafkaServer.scala:220) 日志内容 记录了具体的日志信息,可能是描述性的文本、错误消息、堆栈跟踪等。 starting
  • 日志位置 默认情况下,Kafka的系统日志文件可能位于Kafka安装目录的logs子目录下,但具体位置可能会因配置而异。以下是一些常见的方法用于找到Kafka的系统日志文件位置: 查看Kafka安装目录。 首先,检查Kafka的安装目录。通常,系统日志文件会存储在安装目录下的一个名为logs的子目录中。例如,如果Kafka安装在/usr/local/kafka,则日志文件可能位于/usr/local/kafka/logs。 检查Kafka配置文件: 在${KAFKA_HOME}/bin/kafka-run-class.sh中修改Kafka的logs目录。 # Log directory to use if [ "x$ LOG _DIR" = "x" ]; then # LOG_DIR="$base_dir/logs" LOG_DIR="/data/kafka_logs" fi
  • DNS日志示例以及字段含义 日志示例:2023-07-10 14:30:25 INFO client 192.168.2.50 query: example.org IN A 日志说明:2023年7月10日14时30分25秒,客户端IP地址为192.168.2.50发起了对example.org的A记录查询。 字段含义: 2023-07-10 14:30:25:表示事件发生的时间。 client 192.168.2.50:表示发起查询的客户端的IP地址。 query:表明这是一个查询操作。 example.org:被查询的域名。 IN A:表示查询的是A记录(IPv4地址记录)。
  • 参数获取方式 上线区域表,使用华为云主机时参考以下信息: 表2 区域表 区域名称 RegionName Endpoint 华北-北京四 cn-north-4 https://lts-access.cn-north-4.myhuaweicloud.com:8102 华东-上海一 cn-east-3 https://lts-access.cn-east-3.myhuaweicloud.com:8102 华南-广州 cn-south-1 https://lts-access.cn-south-1.myhuaweicloud.com:8102 亚太-新加坡 ap-southeast-3 https://lts-access.ap-southeast-3.myhuaweicloud.com:8102 当前仅华北-北京四、华东-上海一、华南-广州区域使用SDK时支持跨云/本地上报日志,Endpoint端口使用443。 日志组ID:在 云日志 服务控制台,选择“日志管理”,鼠标悬浮在日志组名称上,可查看日志组名称和日志组ID。 日志流ID:单击日志组名称对应的按钮,鼠标悬浮在日志流名称上,可查看日志流名称和日志流ID。
  • Elasticsearch日志示例以及字段含义 主要日志 { "log.level": "INFO", "@timestamp": "2023-10-23T15:46:30.123Z", "log.origin.file.name": "Elasticsearch.java", "log.origin.file.line": 123, "message": "version[7.17.2], pid[12345], build[default/tar/1234567/2023-10-01T12:00:00.000Z], OS[Linux/5.10.0-10-amd64/amd64], JVM[Eclipse Adoptium/OpenJDK 64-Bit Server VM/11.0.14.1/11.0.14.1+1-LTS]", "type": "server", "cluster.name": "my-cluster", "node.name": "node-1", "node.id": "abcdefg123", "ecs.version": "1.8.0" } { "log.level": "WARN", "@timestamp": "2023-10-23T15:47:00.456Z", "log.origin.file.name": "SlowLog.java", "log.origin.file.line": 456, "message": "[index][search_slowlog][index_name] took[5.6s], took_millis[5600], total_hits[1000], types[], stats[], search_type[QUERY_THEN_FETCH], source[...]", "type": "slowlog", "cluster.name": "my-cluster", "node.name": "node-1", "index.name": "index_name" } 表1 主要日志字段说明 字段 说明 示例 log.level 日志级别,可以是INFO、WARN、ERROR等。 INFO @timestamp 日志记录的时间戳。 2023-10-23T15:46:30.123Z log.origin.file.name 生成日志条目的源文件名。 Elasticsearch.java log.origin.file.line 生成日志条目的源文件行号。 123 message 实际的日志消息内容。 version[7.17.2], pid[12345], build[default/tar/1234567/2023-10-01T12:00:00.000Z], OS[Linux/5.10.0-10-amd64/amd64], JVM[Eclipse Adoptium/OpenJDK 64-Bit Server VM/11.0.14.1/11.0.14.1+1-LTS] type 日志条目的类型(如 server、slowlog、transport 等)。 server cluster.name Elasticsearch集群的名称。 my-cluster node.name 产生日志的Elasticsearch节点的名称。 node-1 node.id 产生日志的Elasticsearch节点的ID。 abcdefg123 index.name (在某些日志条目中):与日志条目相关的索引名称。 index_name ecs.version Elastic Common Schema (E CS ) 的版本,ECS是一个用于标准化Elasticsearch日志字段的规范。 1.8.0 慢搜索日志 { "type": "slowlog", "timestamp": "2023-10-23T16:15:30,234Z", "level": "WARN", "component": "o.e.i.s.q", "cluster.name": "my-cluster", "node.name": "node-1", "node.id": "abcdefg123", "took": "10.5s", "took_millis": 10500, "source": "{\"query\":{\"match_all\":{}}}\n", "shards": [ { "index": "my_index", "shard": "0", "search_type": "QUERY_THEN_FETCH", "total_hits": 12345, "status": 200, "forced_refresh": false, "request_cache": true, "scroll_size": 0 } ] } 表2 慢搜索日志字段说明 字段 说明 示例 type 日志类型。 "slowlog",表示这是一个慢查询日志条目。 timestamp 日志条目的时间戳。 2023-10-23T16:15:30,234Z level 日志级别。 "WARN",表示这是一个警告级别的日志条目。 component 产生日志的组件。 "o.e.i.s.q",代表Elasticsearch内部的一个特定组件或模块。 cluster.name Elasticsearch 集群的名称。 my-cluster node.name 产生日志的节点的名称。 node-1 node.id 产生日志的节点的ID。 abcdefg123 took 查询执行的总时间,以人类可读的格式(如 "10.5s")表示。 10.5s took_millis 查询执行的总时间,以毫秒为单位。 10500 source 触发慢查询的原始查询语句(JSON格式)。 {"query":{"match_all":{}}}\n shards 慢查询涉及的分片信息数组。 - index 分片所在的索引名称。 my_index shard 分片的ID。 0 search_type 查询类型。 QUERY_THEN_FETCH total_hits 查询返回的总命中数。 12345 status 查询的HTTP状态码。 200 forced_refresh 是否强制刷新分片。 false request_cache 是否使用请求缓存。 true scroll_size 滚动查询的大小(如果不适用则为 0)。 0
  • 日志位置 错误日志(Error Log):常见的位置是/var/log/mysql/error.log。可以通过查看MySQL的配置文件(通常是/etc/my.cnf、/etc/mysql/my.cnf或~/.my.cnf)中的log-error参数来确定错误日志的确切位置。 查询日志(General Query Log):如果已启用,其位置由general_log_file参数在配置文件中指定,默认为/var/log/mysql/general.log。 慢查询日志(Slow Query Log):如果已启用,其位置由slow_query_log_file参数在配置文件中指定,默认为/var/log/mysql/mysql-slow.log。 二进制日志(Binary Log):如果已启用,其位置由log-bin参数在配置文件中指定,位于/var/lib/mysql/。
  • Mysql日志示例以及字段含义 介绍错误日志、查询日志、慢查询日志的示例和字段说明。 错误日志(Error Log) 2023-03-29T14:30:15.123456Z 0 [ERROR] InnoDB: Unable to lock ./ibdata1, error: 11 表1 错误日志字段说明 字段 说明 2023-03-29T14:30:15.123456Z 日志条目的时间戳,采用ISO 8601格式,包含时区信息(Z表示UTC时间)。 0 线程ID,对于错误日志,这通常是0,表示这是一个全局消息,而不是与特定客户端连接相关。 [ERROR] 日志级别,这里表示这是一个错误消息。 InnoDB: Unable to lock ./ibdata1, error: 11 具体的错误消息,指示InnoDB存储引擎无法锁定ibdata1文件,并给出了错误代码11(通常表示“资源暂时不可用”)。 查询日志(General Query Log) 190109 14:23:00 3 Connect root@localhost on testdb 3 Query SELECT * FROM users WHERE id = 1 表2 查询日志字段说明 字段 说明 190109 14:23:00 日志条目的时间戳,采用YYMMDD HH:MM:SS格式。 3 线程ID,表示这个操作是由线程ID为3的客户端连接执行的。 Connect 操作类型,这里表示一个客户端连接。 root@localhost 连接的用户名和主机名。 on testdb 连接使用的数据库名。 Query 操作类型,这里表示执行了一个SQL查询。 SELECT * FROM users WHERE id = 1 执行的SQL语句。 慢查询日志(Slow Query Log) 190109 14:23:00 3 Connect root@localhost on testdb 3 Query SELECT * FROM users WHERE id = 1 表3 慢查询字段说明 字段 说明 示例 Time 日志条目的时间戳。 2023-03-29T15:00:01.234567Z User@Host 执行查询的用户和主机信息。 root[root] @ localhost [127.0.0.1] Id 线程ID。 3 Query_time 查询执行的时间长度(秒)。 5.000234 Lock_time 查询等待表锁的时间长度(秒)。 0.000123 Rows_sent 查询返回的行数。 1000 Rows_examined 查询检查的行数(即扫描的行数,可能包括未返回的行)。 100000 SET timestamp= 设置当前会话的时间戳(这通常是为了复制日志的一致性)。 1617012001 SELECT ... 执行的SQL查询。 SELECT * FROM big_table WHERE some_column = 'value'
  • 搜索数据模型 默认情况下,流程元模板的“数据编辑”页展示的是当前流程元模板所属应用下的已添加的全部数据模型。为了帮助用户快速搜索出当前流程元模板的数据模型,系统提供搜索数据模型功能,目前可通过所属应用、编码、英文名称、中文名称、模型类型、模型分类、创建者及更新者等属性维度进行过滤。 进入流程元模板的编辑模式后,选择“数据编辑”页签,切换至“数据编辑”页面。 在“数据编辑”页面,根据实际业务需求,设置筛选条件,单击“搜索”,即可获取对应数据模型。 图1 搜索数据模型 筛选条件说明如下: 所属应用:支持按照内置应用XDM和当前应用进行筛选。 编码:可通过数据模型的编码进行筛选。 中文名称:可通过数据模型的中文名称进行筛选。 英文名称:可通过数据模型的英文名称进行筛选。 模板类型:支持按照实体模型、抽象模型和扩展模型进行筛选。 模型分类:支持按照系统配置模型和业务数据模型进行筛选。 创建者:可通过创建数据模型的用户名筛选。 更新者:可通过更新数据模型的用户名筛选。
  • 工作原理 统一认证SDK是基于JWT实现的一种认证机制,Json web token (JWT)是在网络应用环境间为了传递声明而执行的一种基于JSON的开放标准(RFC 7519)。该token的设计紧凑且安全,特别适用于分布式站点的单点登录(SSO)场景。JWT的声明一般被用来在身份提供者和服务提供者间传递被认证的用户身份信息,以便从资源服务器获取资源。它也可以被增加一些其它业务逻辑所必须的声明信息。该token可直接被用于认证,也可被加密。 API请求方将请求的用户信息利用私钥哈希生成签名,将用户信息与签名合并生成token,在调用API时将token传递给被调用方,API被调用方获取到此token后,利用公钥验证此token的正确性。 图1 机机认证方案
  • 我的申请 您可以在“我的申请”页面查看已发起的流程任务,包括:主题、流程元模板、流程状态、生命周期、创建人、发起时间及结束时间等。 图3 我的申请 此外,您还可以对已发起的流程任务进行如下操作。 表2 “我的申请”相关操作 操作 描述 查看流程任务详情 单击流程任务所在行的“主题”。 进入执行流程任务页面,即可查看流程的执行进展。 搜索流程任务 为了帮助您快速查询出您发起的流程任务,您可以参考如下说明进行筛选。 主题:可通过流程任务的名称进行筛选。 流程元模板:可通过流程元模板的名称进行筛选。 流程状态:支持按挂起、未完成、已完成及取消进行筛选。 发起时间:您可以自定义流程任务的发起时间和结束时间进行筛选。
  • 审批历史 “审批历史”页面展示您在流程引擎审批流程的操作记录,您可以通过此功能追溯历史审批记录,并查看审批详情。 默认情况下,审批历史列表展示当前用户的全部历史审批任务,包括:任务名称、流程元模板、流程状态、生命周期、创建人、发起时间及结束时间等。 图5 审批历史 此外,您还可以进行如下操作: 表4 “审批历史”相关操作 操作 描述 搜索历史审批任务 为了帮助您快速查询出与您相关的历史审批任务,您可以参考如下说明进行筛选。 任务名称:可通过审批任务的名称进行筛选。 流程元模板:可通过流程元模板的名称进行筛选。 流程状态:支持按挂起、未完成、已完成及取消进行筛选。 创建人:可通过审批任务的创建人进行筛选。 结束时间:您可以自定义历史审批任务的发起时间和结束时间进行筛选。 查看历史审批任务详情 通过单击对应历史审批任务的“任务名称”进行查看。
  • 我的待办 您可以在“我的待办”页面查看需要自己审批的流程任务,包括:任务名称、流程元模板、生命周期、创建人、发起时间及操作等。 图1 我的待办 此外,您还可以对待审批的流程任务进行如下操作。 表1 “我的待办”相关操作 操作 描述 审批流程任务 单击流程任务所在行的“任务名称”。 进入审批流程任务页面,审批流程。不同用户自定义的流程元模板可能存在差异,请您结合实际情况操作。本操作以下图为示例进行说明: 图2 审批流程任务 通过:选择“通过”,输入审批意见,单击“提交”。 拒绝:选择“不通过”,输入审批意见,单击“提交”。 转审:选择“转他人处理”,输入转审人账号,单击“提交”。 搜索流程任务 为了帮助您快速查询出您待审批的流程任务,您可以参考如下说明进行筛选。 任务名称:可通过流程任务的名称进行筛选。 流程元模板:可通过流程元模板的名称进行筛选。 创建人:可通过审批任务的创建人进行筛选。 发起时间:您可以自定义流程任务的发起时间和结束时间进行筛选。 转审流程任务 单击流程任务所在行的。 在弹出的“转审”窗口中,输入转审人账号,单击“确定”。
  • 收集信息 表1 收集信息 项目 说明 私钥/公钥获取URL/密钥ID/公钥/appId 访问私钥是在CraftArts IPDCenter API交互过程身份凭证。通过私钥生成认证凭据,用于确保请求者身份的正确性。公钥获取URL自动获取公钥的地址,通过此地址,可自动获取公钥信息,用于检验认证凭据的正确性。 公钥获取URL地址为:https://域名/文根/basic/mgmt//public/api/v1/keymanage/getPublicKeyList appId、公钥、私钥与密钥ID见下面获取方式。
  • 基本信息配置 登录管理中心。 选择左侧导航栏的“应用管理”。 单击“添加自建应用”。 图1 添加自建应用 输入应用名称,如“自建App”。 上传应用图标,图标要求必须为JPG或PNG格式,大小不超过20KB,尺寸240*240px。 选择应用类型,当前仅支持选择“Web”。 设置应用负责人,输入并选择成员姓名,将成员设置为应用负责人。 应用负责人即该应用的应用管理员,只有应用管理员才能更新该应用配置,其他管理员没有操作该应用的权限。 普通成员不能成为应用负责人,需先成为组织管理员、部门管理员才能被设置为应用负责人。 单击“确定”,进入认证集成页面。
  • 认证集成配置 OrgID的登录集成方式推荐使用OAuth2。 图2 选择认证方式 表1 参数说明 认证集成方式 参数名称 参数说明 OAuth2 首页URL 应用首页的URL地址,例:https://xx.xx。 支持设置多个首页的URL地址,可单击“新建URL”,添加新的URL地址。 管理员登录URL 可选项,管理员登录应用的URL地址。 退出地址 可选项,应用的退出地址,请以http或https开头,例:https://xx.xx/logout。 Refresh Token有效期(秒) 允许用户在多久时间内不用重新登录应用的时间。 Access Token有效期(秒) 允许用户在多久时间内保持登录应用的时间。 配置“首页URL”,此参数配置为产品首页的URL,集成OrgID后,在OrgID登录成功后会跳转到此地址,并携带认证参数。
  • 授权管理配置 在授权管理页面对用户进行授权(配置哪些账号可以登录此应用)。 单击“授权设置”,在“授权设置”界面中选择被授权成员信息,单击“下一步”。 图3 授权设置-1 选择可用成员范围,可勾选“全员可用”或“自定义人员范围”,勾选“自定义人员范围”后还需要选择指定的部门与成员或者用户组。 图4 授权设置-2 设置后,应用授权范围中会显示授权部门、授权成员或授权用户组信息。同时,授权用户列表中也会展示授权账号的详细情况(包括姓名、账号名、应用侧角色、来源、更新时间和同步状态),支持按照时间或账号名进行过滤查询。 单击“确定”。
  • 接口对接配置 应用需要完成的逻辑 在用户访问应用时,应用需要判断是否已经登录,如果没有登录,需要重定向到OrgID登录页面,获取认证集成配置中的“首页URL”地址。 用户在OrgID登录成功后,OrgID会自动重定向到应用页面,同时会携带授权码,此时,应用在后端需要通过授权码调用OrgID的2个接口(getToken接口、getUserInfo接口),换取具体的用户信息。 OrgID接口信息地址 获取AccessToken 获取用户信息 图5 通过授权码获取token接口 图6 通过token获取用户信息接口
  • 接口对接指导 应用需要完成的逻辑 在用户访问应用时,应用需要判断是否已经登录,如果没有登录,需要重定向到CraftArts IPDCenter登录页面,重定向的地址为下面接口中的获取授权码接口。 用户在CraftArts IPDCenter登录成功后,CraftArts IPDCenter会自动重定向到应用页面,同时会携带授权码,此时,应用在后端需要通过授权码调用 CraftArts IPDCenter的2个接口(getToken接口、getUserInfo接口),换取具体的用户信息。 接口信息地址 应用实例授权登录,获取授权码接口 用户级Token获取 Token刷新 获取当前登录的用户信息 退出登录接口
  • 快捷键命令 在编排组件的过程中,还可以通过以下快捷键进行快捷操作。 表7 快捷键命令 操作 快捷键 操作 快捷键 搜索元素 Ctrl + F 复制 Ctrl + C 全选 Ctrl + A 粘贴 Ctrl + V 撤销 Ctrl + Z 删除 Backspace / Delete / Del 恢复 Ctrl + Y 上下滚动 鼠标滚轮 手型工具 H 移动 ←↑→↓ 套索工具 L 左右滚动 Shift + 鼠标滚轮 空间工具 S 缩放 Ctrl + (鼠标滚轮 / +-) 连接工具 C 恢复缩放 Ctrl + 0 编辑名称 E 选取 Shift + (鼠标左键 / 鼠标拖动)
共100000条