华为云用户手册

  • 测试结果 表2 测试结果 分区数 副本数 是否同步复制 batch.size 是否跨AZ生产 客户端消息生产速率 服务端CPU消耗(broker-0) 服务端CPU消耗(broker-1) 服务端CPU消耗(broker-2) 3 1 否 1KB 否 34128 58.10% 56.70% 53.30% 3 1 否 16KB 否 102399 24.10% 25.00% 23.30% 3 1 否 1KB 是 8523 17.20% 16.70% 18.80% 3 3 是 1KB 否 3981 60.00% 55.20% 50.00% 3 3 否 1KB 否 14468 86.70% 80.60% 86.20% 通过上表的测试结果,得出以下结论,仅供参考: 生产请求的batch.size变大16倍时,客户端消息生产速率增加,服务端CPU消耗减少。 同AZ生产和跨AZ生产相比,客户端消息生产速率增加,服务端CPU消耗也随之增加。 副本从1变成3时,客户端消息生产速率下降较多,服务端CPU消耗增加。 异步复制的Topic和同步复制的Topic相比,客户端消息生产速率增加,服务端CPU消耗也随之增加。
  • 测试环境 进行性能测试前,您需要先构建如下的测试环境: 购买一个Kafka实例,参数信息如下,购买方法请参考购买Kafka实例。 区域:华北-北京四 可用区:可用区1 实例名称:kafka-test 企业项目:default 版本:2.7 代理规格:kafka.2u4g.cluster 代理个数:3 存储空间:超高I/O,200GB 容量阈值策略:自动删除 虚拟私有云:选择虚拟私有云 安全组:选择安全组 内网访问:开启“明文接入” 公网访问:不开启 更多配置:不开启“Smart Connect”和“Kafka自动创建Topic” 购买完成后,在实例详情页获取Kafka实例的内网明文连接地址。 在购买的Kafka实例中,创建如下参数的3个Topic,具体步骤请参考创建Kafka Topic。 Topic-01:3分区1副本,异步复制 Topic-02:3分区3副本,异步复制 Topic-03:3分区3副本,同步复制 获取测试工具。 获取Kafka命令行工具2.7.2版本。 购买客户端服务器。 购买如下参数的2台E CS 服务器,具体步骤请参考购买弹性云服务器。 区域、可用区、虚拟私有云、子网、安全组与Kafka实例保持一致,规格为4U8G,Linux系统的ECS。 区域、虚拟私有云、子网、安全组与Kafka实例保持一致,“可用区”为“可用区2”,规格为4U8G,Linux系统的ECS。 购买完成ECS后,需要在ECS中完成以下配置: 安装Java JDK,并配置JAVA_HOME与PATH环境变量。 export JAVA_HOME=/root/jdk1.8.0_231 export PATH=$JAVA_HOME/bin:$PATH 下载Kafka命令行工具2.7.2版本,并解压。 tar -zxf kafka_2.12-2.7.2.tgz
  • 测试步骤 测试场景一:批处理大小 登录客户端服务器,进入“kafka_2.12-2.7.2/bin”目录下,执行以下脚本。 batch.size=1KB,执行脚本如下: ./kafka-producer-perf-test.sh --producer-props bootstrap.servers=192.168.0.69:9092,192.168.0.42:9092,192.168.0.66:9092 acks=1 batch.size=1024 linger.ms=0 --topic Topic-01 --num-records 8000000 --record-size 1024 --throughput 102400 执行结果如下: 8000000 records sent, 34128.673632 records/sec (33.33 MB/sec), 879.91 ms avg latency, 4102.00 ms max latency, 697 ms 50th, 2524 ms 95th, 2888 ms 99th, 4012 ms 99.9th. 客户端消息生产速率=34128 batch.size=16KB,执行脚本如下: ./kafka-producer-perf-test.sh --producer-props bootstrap.servers=192.168.0.69:9092,192.168.0.42:9092,192.168.0.66:9092 acks=1 batch.size=16384 linger.ms=0 --topic Topic-01 --num-records 100000000 --record-size 1024 --throughput 102400 执行结果如下: 100000000 records sent, 102399.318430 records/sec (100.00 MB/sec), 4.72 ms avg latency, 914.00 ms max latency, 1 ms 50th, 5 ms 95th, 162 ms 99th, 398 ms 99.9th. 客户端消息生产速率=102399 登录Kafka实例控制台,单击测试实例名称,进入实例详情页。 在左侧导航栏单击“监控”,进入监控页面。 在“节点”页签,查看服务端节点的CPU使用率。 图1 broker-0的CPU使用率(batch.size=1KB) CPU消耗=58.10% 图2 broker-0的CPU使用率(batch.size=16KB) CPU消耗=24.10% 图3 broker-1的CPU使用率(batch.size=1KB) CPU消耗=56.70% 图4 broker-1的CPU使用率(batch.size=16KB) CPU消耗=25% 图5 broker-2的CPU使用率(batch.size=1KB) CPU消耗=53.30% 图6 broker-2的CPU使用率(batch.size=16KB) CPU消耗=23.30% 测试场景二:是否跨AZ生产 登录客户端服务器,进入“kafka_2.12-2.7.2/bin”目录下,执行以下脚本。 客户端服务器和实例在相同的AZ中,执行脚本如下: ./kafka-producer-perf-test.sh --producer-props bootstrap.servers=192.168.0.69:9092,192.168.0.42:9092,192.168.0.66:9092 acks=1 batch.size=1024 linger.ms=0 --topic Topic-01 --num-records 8000000 --record-size 1024 --throughput 102400 执行结果如下: 8000000 records sent, 34128.673632 records/sec (33.33 MB/sec), 879.91 ms avg latency, 4102.00 ms max latency, 697 ms 50th, 2524 ms 95th, 2888 ms 99th, 4012 ms 99.9th. 客户端消息生产速率=34128 客户端服务器和实例在不同的AZ中,执行脚本如下: ./kafka-producer-perf-test.sh --producer-props bootstrap.servers=192.168.0.69:9092,192.168.0.42:9092,192.168.0.66:9092 acks=1 batch.size=1024 linger.ms=0 --topic Topic-01 --num-records 4000000 --record-size 1024 --throughput 102400 执行结果如下: 4000000 records sent, 8523.042044 records/sec (8.32 MB/sec), 3506.20 ms avg latency, 11883.00 ms max latency, 1817 ms 50th, 10621 ms 95th, 11177 ms 99th, 11860 ms 99.9th. 客户端消息生产速率=8523 登录Kafka实例控制台,单击测试实例名称,进入实例详情页。 在左侧导航栏单击“监控”,进入监控页面。 在“节点”页签,查看服务端节点的CPU使用率。 图7 broker-0的CPU使用率(客户端服务器和实例在相同的AZ中) CPU消耗=58.10% 图8 broker-0的CPU使用率(客户端服务器和实例在不同的AZ中) CPU消耗=17.20% 图9 broker-1的CPU使用率(客户端服务器和实例在相同的AZ中) CPU消耗=56.70% 图10 broker-1的CPU使用率(客户端服务器和实例在不同的AZ中) CPU消耗=16.70% 图11 broker-2的CPU使用率(客户端服务器和实例在相同的AZ中) CPU消耗=53.30% 图12 broker-2的CPU使用率(客户端服务器和实例在不同的AZ中) CPU消耗=18.80% 测试场景三:副本数 登录客户端服务器,进入“kafka_2.12-2.7.2/bin”目录下,执行以下脚本。 1副本,执行脚本如下: ./kafka-producer-perf-test.sh --producer-props bootstrap.servers=192.168.0.69:9092,192.168.0.42:9092,192.168.0.66:9092 acks=1 batch.size=1024 linger.ms=0 --topic Topic-01 --num-records 8000000 --record-size 1024 --throughput 102400 执行结果如下: 8000000 records sent, 34128.673632 records/sec (33.33 MB/sec), 879.91 ms avg latency, 4102.00 ms max latency, 697 ms 50th, 2524 ms 95th, 2888 ms 99th, 4012 ms 99.9th. 客户端消息生产速率=34128 3副本,执行脚本如下: ./kafka-producer-perf-test.sh --producer-props bootstrap.servers=192.168.0.69:9092,192.168.0.42:9092,192.168.0.66:9092 acks=1 batch.size=1024 linger.ms=0 --topic Topic-02 --num-records 4000000 --record-size 1024 --throughput 102400 执行结果如下: 4000000 records sent, 14468.325219 records/sec (14.13 MB/sec), 2069.99 ms avg latency, 7911.00 ms max latency, 846 ms 50th, 6190 ms 95th, 6935 ms 99th, 7879 ms 99.9th. 客户端消息生产速率=14468 登录Kafka实例控制台,单击测试实例名称,进入实例详情页。 在左侧导航栏单击“监控”,进入监控页面。 在“节点”页签,查看服务端节点的CPU使用率。 图13 broker-0的CPU使用率(1副本) CPU消耗=58.10% 图14 broker-0的CPU使用率(3副本) CPU消耗=86.70% 图15 broker-1的CPU使用率(1副本) CPU消耗=56.70% 图16 broker-1的CPU使用率(3副本) CPU消耗=80.60% 图17 broker-2的CPU使用率(1副本) CPU消耗=53.30% 图18 broker-2的CPU使用率(3副本) CPU消耗=86.20% 测试场景四:同步/异步复制 登录客户端服务器,进入“kafka_2.12-2.7.2/bin”目录下,执行以下脚本。 异步复制,执行脚本如下: ./kafka-producer-perf-test.sh --producer-props bootstrap.servers=192.168.0.69:9092,192.168.0.42:9092,192.168.0.66:9092 acks=1 batch.size=1024 linger.ms=0 --topic Topic-02 --num-records 4000000 --record-size 1024 --throughput 102400 执行结果如下: 4000000 records sent, 14468.325219 records/sec (14.13 MB/sec), 2069.99 ms avg latency, 7911.00 ms max latency, 846 ms 50th, 6190 ms 95th, 6935 ms 99th, 7879 ms 99.9th. 客户端消息生产速率=14468 同步复制,执行脚本如下: ./kafka-producer-perf-test.sh --producer-props bootstrap.servers=192.168.0.69:9092,192.168.0.42:9092,192.168.0.66:9092 acks=-1 batch.size=1024 linger.ms=0 --topic Topic-03 --num-records 1000000 --record-size 1024 --throughput 102400 执行结果如下: 1000000 records sent, 3981.937930 records/sec (3.89 MB/sec), 7356.98 ms avg latency, 19013.00 ms max latency, 6423 ms 50th, 14381 ms 95th, 18460 ms 99th, 18975 ms 99.9th. 客户端消息生产速率=3981 登录Kafka实例控制台,单击测试实例名称,进入实例详情页。 在左侧导航栏单击“监控”,进入监控页面。 在“节点”页面,查看服务端节点的CPU使用率。 图19 broker-0的CPU使用率(异步复制) CPU消耗=86.70% 图20 broker-0的CPU使用率(同步复制) CPU消耗=60% 图21 broker-1的CPU使用率(异步复制) CPU消耗=80.60% 图22 broker-1的CPU使用率(同步复制) CPU消耗=55.20% 图23 broker-2的CPU使用率(异步复制) CPU消耗=86.20% 图24 broker-2的CPU使用率(同步复制) CPU消耗=50%
  • 测试脚本 ./kafka-producer-perf-test.sh --producer-props bootstrap.servers=${连接地址} acks=1 batch.size=${batch.size} linger.ms=0 --topic ${Topic名称} --num-records ${num-records} --record-size 1024 --throughput 102400 bootstrap.servers:购买Kafka实例中获取的Kafka实例的地址。 acks:消息主从同步策略,acks=1表示异步复制消息,acks=-1表示同步复制消息。 batch.size:每次批量发送消息的大小(单位为字节)。 linger.ms:两次发送时间间隔。 topic:创建Topic中设置的Topic名称。 num-records:总共需要发送的消息数。 record-size:每条消息的大小。 throughput:每秒发送的消息数。
  • 解决方法 建议您使用Confluent-Kafka-go作为Kafka客户端库。 以下为您提供常用Golang客户端的对比,具体参见表1。 表1 常用Golang客户端对比 客户端 优点 缺点 Confluent-Kafka-go Confluent-Kafka-go是由Confluent提供的官方Kafka客户端库,与Kafka完全兼容,支持所有的Kafka特性。 稳定性高,基于librdkafka,具有高性能和低延迟的特点。 增加编译复杂度。由于导入C++库,Golang编译器需要引入额外编译配置,增加了编译依赖,提高编译复杂度。 Kafka-go kafka-go是一个简单、轻量级的Kafka客户端库,易于学习和使用。 kafka-go的代码库相对较小,依赖较少,可以减少应用程序的体积和依赖关系。 Kafka-go相对于Confluent-Kafka-go来说,功能较为有限,不支持一些高级特性和复杂的配置选项。 性能和吞吐量较低,适用于一些对性能要求不高的简单应用场景。 Sarama Sarama采用原生Golang语言编写,对于异步以及高并发操作支持度较好。 问题较多,文档相对较少。 Sarama在处理大量消息时,会占用较多的内存资源,可能会对应用程序的性能造成一定的影响。
  • 问题现象 使用Sarama客户端收发消息存在以下问题: Sarama客户端无法感知分区变化,当Topic分区数增加时,需要重启客户端后才能正常消费。 Sarama客户端消息最大处理时间(MaxProcessingTime)默认值为100ms,超过最大处理时间可能导致消费者无法消费。 当消费位点重置策略设置为Oldest(earliest)时,当客户端重启时,偏移量重置后可能从最小位点开始重复消费所有消息。 消费者同时订阅多个Topic时,部分分区可能无法消费到消息。
  • 如果消息组中没有在线的消费者(如empty状态),是否14天后会自动被删除? 消息组中没有在线的消费者(如empty状态),14天后是否会自动被删除与offsets.retention.minutes、auto.create.groups.enable参数有关: 2023年4月25日前创建的实例,auto.create.groups.enable默认为true,消费组多久后会自动被删除取决于offsets.retention.minutes,offsets.retention.minutes支持在控制台修改,具体修改方法请参考修改配置参数。 2023年4月25日及之后创建的实例,分为以下几种情况: auto.create.groups.enable为false时,消费组不会被删除,如果需要删除消费组,您可以手动删除。 auto.create.groups.enable为false时,存在一种特殊场景:2024年2月5日前创建的Kafka实例,如果消费组只订阅了一个Topic,且消费组状态为empty,此时删除此Topic,会同时将消费组删除。 auto.create.groups.enable为true时,如果消费组中从未提交过offset,消费组十分钟后自动被删除。 auto.create.groups.enable为true时,如果消费组中提交过offset,消费组多久后会自动被删除取决于offsets.retention.minutes,offsets.retention.minutes支持在控制台修改,具体修改方法请参考修改配置参数。 原因如下:Kafka通过offsets.retention.minutes参数控制消费组中offsets保留时间,在此时间内如果没有提交offset,offsets将会被删除。Kafka判定消息组中没有在线的消费者(如empty状态),且没有offsets时,将会删除此消费组。 父主题: 消费组问题
  • Kafka扩容/缩容会影响业务吗? 扩容/缩容Kafka实例的影响如表1所示。变更实例规格的时长和代理数量有关,单个代理的变更时长一般在5~10分钟,代理数量越多,规格变更时间越长。 表1 变更实例规格的影响 变更配置类型 影响 基准带宽/代理数量 扩容基准带宽/代理数量不会影响原来的代理,业务也不受影响。 扩容基准带宽/代理数量时,系统会根据当前磁盘大小进行相应比例的存储空间扩容。例如扩容前实例的代理数为3,每个代理的磁盘大小为200GB,扩容后实例的代理数为10,此时代理的磁盘大小依旧为200GB,但是总磁盘大小为2000GB。 新创建的Topic才会分布在新代理上,原有Topic还分布在原有代理上,造成分区分布不均匀。通过修改分区平衡,实现将原有Topic分区的副本迁移到新代理上。 存储空间 扩容存储空间有次数限制,只能扩容20次。 扩容存储空间不会影响业务。 代理规格 若Topic为单副本,扩容/缩容期间无法对该Topic生产消息或消费消息,会造成业务中断。 若Topic为多副本,扩容/缩容代理规格不会造成服务中断,但可能会导致消费的分区消息发生乱序,请谨慎评估业务影响,建议您在业务低峰期扩容/缩容。 扩容/缩容代理规格的过程中,节点滚动重启造成分区Leader切换,会发生秒级连接闪断,在用户网络环境稳定的前提下,Leader切换时长一般为1分钟以内。多副本的Topic需要在生产客户端配置重试机制,方法如下: 生产客户端为Kafka开源客户端时,检查是否配置retries参数,建议此参数值设置为3~5。 生产客户端为Flink客户端时,检查是否配置重启策略,配置重启策略可以参考如下代码。 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); env.setRestartStrategy(RestartStrategies.fixedDelayRestart(3, Time.seconds(20))); 若实例已创建的分区数总和大于待缩容规格的实例分区数上限,此时无法缩容。不同规格配置的实例分区数上限不同,具体请参见产品规格。 例如:kafka.4u8g.cluster*3的实例,已创建800个分区,您想把此实例的规格缩容为kafka.2u4g.cluster*3,kafka.2u4g.cluster*3规格的实例分区数上限为750,此时无法缩容。 父主题: 实例规格变更问题
  • 操作场景 安全云脑 支持一键接入WAF、HSS、OBS等多种华为云云产品的日志数据。接入后,可以统一管理日志信息,以及检索并分析所有收集到的日志。具体支持接入的云服务日志请参见支持接入的日志。 每个Region的首个工作空间可自动加载当前Region推荐接入的日志数据(未全部接入),无需手动处理。后续新增的用于自定义运营的工作空间,不会自动加载数据,需要用户自定义接入。 建议将安全云脑管理的资产以及资产的告警、基线检查结果、漏洞数据、日志数据接入同一个工作空间,便于统一运营,进行安全分析关联。 本章节介绍如何接入数据并查看日志存储位置。
  • 工作空间通用规则 付费版本安全云脑:单账号单Region内最多创建5个工作空间。 免费版本安全云脑:单账号单Region内最多创建1个工作空间。 工作空间永久删除:永久删除的workspace立即删除,不能进行恢复。 空间托管: 单账号单Region内最多创建1个空间托管视图。 一个托管视图可以跨Region管理不同账号下的最多150个工作空间。 单账号创建账号委托 ≤ 10个。 暂不支持在同一个浏览器的多个窗口进入不同的工作空间进行操作。
  • 约束与限制 安全云脑约束与限制如下所示: 表1 约束与限制 模块 约束与限制 计费 基础版不支持购买增值包,如需使用增值包功能,请升级为标准版或专业版。 增值包不支持单独使用。 如果需要购买增值包,请先购买标准版或专业版。 如果退订了按需计费的专业版,系统将自动一并退订增值包。 如果退订了包周期计费的标准版或专业版,需手动一并退订增值包。 纳管环境 不支持纳管边缘环境:IEC、DEC、IES等边缘站点。 仅支持纳管Default项目,不支持纳管子项目。 不支持按EPS粒度纳管资源。 工作空间 付费版本安全云脑:单账号单Region内最多创建5个工作空间。 免费版本安全云脑:单账号单Region内最多创建1个工作空间。 工作空间永久删除:永久删除的workspace立即删除,不能进行恢复。 空间托管: 单账号单Region内最多创建1个空间托管视图。 单/跨账号单Region空间托管视图(包含的纳管工作空间数)中的工作空间数 ≤ 100个。 跨账号跨Region空间托管视图(包含的纳管工作空间数)中的工作空间数 ≤ 10个。 单账号创建账号委托 ≤ 10个。 暂不支持在同一个浏览器的多个窗口进入不同的工作空间进行操作。 数据空间/管道 单账号单Region单Workspace最多创建5个数据空间。 单账号单Region单数据空间最多创建20个数据管道。 安全报告 单账号单workspace内,最多可创建10个安全报告(包含日报、周报和月报)。 告警模型 单账号单Region单workspace最多创建100个告警模型。 一个告警模型的运行时间间隔须 ≥ 5分钟,查询数据的时间范围 ≤ 14天。 查询与分析 单次查询分析最多支持返回500条结果。 一个数据管道内最多创建50个快速查询,即最多可以将50个查询分析条件保存为快速查询。 单次查询结果大于50000条时,准确率可能会下降。请通过缩短查询的时间范围、添加查询限制条件等方法减少查询结果的数量。 使用聚合查询(例如group by语句)聚合多个字段时,第二个字段默认分桶数量为10,如果超出会有数据丢失的情况,将导致查询结果不准确。 事件、告警、情报、漏洞 单账号单Workspace内,每天最多新增告警/事件/情报/漏洞100个。 单账号单Workspace内,每天最多可以告警转事件100个。 剧本 单账号单workspace内,单剧本调度频率时间 ≥ 5分钟。 剧本和流程实例 单账号单workspace内一天内的重试次数限制如下: 手动重试:流程实例最大重试次数100次。重试之后,等剧本执行完毕之后才允许再次重试。 API接口重试:流程实例最大重试次数100次。重试之后,等剧本执行完毕之后才允许再次重试。 分类&映射 单账号单workspace内,分类&映射模板 ≤ 50个。 单账号单workspace内,分类和映射的映射关系规格为1:100。 单账号单workspace内,最多可新增分类&映射100个。
  • 使用须知 仅支持MySQL InnoDB引擎。 仅支持select/insert/update/delete语句诊断,其中insert必须带select子句。 暂不支持查询information_schema、test、mysql。 暂不支持使用视图的语句。 SQL诊断功能会获取相关表结构和数据分布信息(非原始数据),该信息仅用于诊断逻辑,不会存储到DAS服务器。 获取表结构和数据分布信息的过程中,可能会对实例带来额外负载,但对性能影响甚微。 SQL诊断历史是唯一存储在DAS服务器上的数据,如果执行删除操作后,也将彻底从服务器上删除。 格式化用于提高SQL语句易读性,只是转换SQL语句的显示形式,不会修改SQL的执行逻辑和语义。 格式化是对整个SQL窗口内所有SQL语句进行格式化,暂不支持选中多条语句中的某一条进行格式化。
  • 前提条件 TaurusDB5.6的内核版本要大于等于5.6.43.3,5.7的内核版本要大于等于5.7.25.3。 不支持ECS自建库,不支持创建中、冻结、异常实例。 请务必在紧急情况下使用该功能,您的Kill操作将会以日志的形式被记录下来。 当您的实例能够通过DAS正常登录时,请勿使用该功能,您可以登录实例,通过实时会话功能执行相关操作。 rdsadmin、rdsbackup、rdsmetric、rdsRepl等敏感用户的会话禁止Kill。 当CPU或者连接数打满的情况下,kill会话请求有一定概率会下发超时,此时请重新下发kill会话请求。
  • 使用须知 仅支持MySQL InnoDB引擎。 仅支持select/insert/update/delete语句诊断,其中insert必须带select子句。 暂不支持查询information_schema、test、mysql。 暂不支持使用视图的语句。 SQL诊断功能会获取相关表结构和数据分布信息(非原始数据),该信息仅用于诊断逻辑,不会存储到DAS服务器。 获取表结构和数据分布信息的过程中,可能会对实例带来额外负载,但对性能影响甚微。 SQL诊断历史是唯一存储在DAS服务器上的数据,如果执行删除操作后,也将彻底从服务器上删除。 格式化用于提高SQL语句易读性,只是转换SQL语句的显示形式,不会修改SQL的执行逻辑和语义。 格式化是对整个SQL窗口内所有SQL语句进行格式化,暂不支持选中多条语句中的某一条进行格式化。
  • 支持审计的关键操作列表 通过 云审计 服务,您可以记录与华为云数据管理服务相关的操作事件,便于日后的查询、审计和回溯。 表1 云审计服务支持的DAS操作列表 操作名称 资源类型 事件名称 创建数据库登录 instance createConnection 测试数据库登录 connection testConnection 验证数据库登录 connection verifyConnection 修改数据库登录 connection modifyConnection 删除数据库登录 connection deleteConnection 登录数据库 connection databaseLoginActions 登录数据库 connection dbsConnection 执行SQL connection executeSql 取消执行SQL connection cancelExecute 获取执行结果集 connection getExecuteResult 切割SQL connection splitSql 格式化SQL connection formatSql 获取SQL执行计划 connection getPlan 编辑结果集 connection editDatas 导出结果集 connection exportData 关闭SQL窗口 connection closeWindow 拉取自动填充数据 connection autoFill 删除SQL执行记录 connection deleteExecSqlRecord 创建导出结果集任务 connection createExportSqlResultsetTask 创建导出数据库任务 connection createExportDatabaseTask 创建快速导出任务 connection createExportQuickDatabaseTask 删除导出任务 connection deleteExportTask 停止导出任务 connection stopExportTask 创建导入SQL文件任务 connection createImportSqlFileTask 创建导入CSV文件任务 connection createImportCsvFileTask 删除导入任务 connection deleteImportTask 停止导入任务 connection stopImportTask 创建自动生成测试数据任务 connection createTestDataTask 删除自动生成测试数据任务 connection deleteTestDataTask 停止自动生成测试数据任务 connection stopTestDataTaskCreate 合并文件分片 connection mergeFilePart 上传文件分片 connection uploadFilePart 执行SQL诊断 connection exeTuning 创建OBS桶 connection createBucket 父主题: 审计
  • 使用须知 如果导出数据时未勾选“生成单表文件”,则导出的数据文件后缀为“.zip”格式,此格式的数据文件暂不支持直接导入,需要解压后才可再次导入。 如果导出数据时勾选了“生成单表文件”,则导出的数据文件为每个单表的数据文件(“.sql”或者“.csv”格式),该情况下导出的数据文件可直接再次导入。 如果导出的Microsoft SQL Server实例表数量超过1万时,使用导出数据库功能会报错表数量过多,无法导出数据。此时请使用导出SQL结果集功能。
  • 使用须知 仅支持MySQL InnoDB引擎。 仅支持select/insert/update/delete语句诊断,其中insert必须带select子句。 暂不支持查询information_schema、test、mysql。 暂不支持使用视图的语句。 SQL诊断功能会获取相关表结构和数据分布信息(非原始数据),该信息仅用于诊断逻辑,不会存储到DAS服务器。 获取表结构和数据分布信息的过程中,可能会对实例带来额外负载,但对性能影响甚微。 SQL诊断历史是唯一存储在DAS服务器上的数据,如果执行删除操作后,也将彻底从服务器上删除。 格式化用于提高SQL语句易读性,只是转换SQL语句的显示形式,不会修改SQL的执行逻辑和语义。 格式化是对整个SQL窗口内所有SQL语句进行格式化,暂不支持选中多条语句中的某一条进行格式化。
  • 方案概述 用户可以将本地NAS存储中的数据,通过云专线和rsync工具迁移至云上SFS Turbo文件系统中,进行云上业务拓展。 此方案通过在云上创建一台Linux操作系统的云服务器,来连接本地NAS存储以及云上SFS Turbo文件系统的通信,并通过这台服务器将本地NAS存储中的数据迁移至云上。 将云上NAS存储数据迁移至SFS Turbo文件系统中也可以参考本方案,云上NAS和SFS Turbo文件系统需要配置在同一个VPC下。
  • 操作步骤 登录已创建好的Linux系统云服务器,用于同时访问本地NAS存储和SFS Turbo文件系统。 输入以下挂载命令,用于访问本地NAS存储。 mount -t nfs -o vers=3,timeo=600,noresvport,nolock,tcp 本地NAS挂载地址 /mnt/src 输入以下挂载命令,用于访问SFS Turbo文件系统。 mount -t nfs -o vers=3,timeo=600,noresvport,nolock,tcp 文件系统挂载地址 /mnt/dst 在Linux云服务器中执行以下命令安装rsync工具。 yum install rsync 图1 安装rsync工具 源端服务器和目的端服务器均需要安装rsync工具,否则将会报错。 安装完成后,可以输入以下命令查询rsync工具的安装和版本情况。 rsync -version 图2 查看工具安装情况 执行以下命令,将源端服务器/mnt/src目录中的数据全量同步迁移至目的端服务器/mnt/dst目录(文件系统)中。 rsync -avP /mnt/src /mnt/dst 图3 全量同步数据
  • (可选)新增English情景模式 前面的所有操作,都是main情景模式下的配置,如果智能交互配置时,语言选择“中文”,则main情景模式下的配置生效。 如果智能交互配置时,语言选择“英文”,当前应用需要新增English情景模式,才能对话成功。 操作步骤,如下所示: 在界面上方的主菜单中,单击“我的应用”。 单击新增应用所在行的图标,进入“应用配置”页面。 图16 应用配置页面 单击界面最上方的“情景模式”右侧的“+”图标,弹出“新增情景模式”对话框。 一个应用可以增加多个情景模式,每个情景模式相互独立,互不干扰。 参数配置说明,如下所示: 情景模式名称:必须配置为“English”。 保持“语音语义”不变。 图17 新增情景模式 单击“确定”,English情景模式新增成功。 界面参数配置说明,如下所示: 语音识别 :从下拉框中选择“通用-英文-进场”。 自然语言模型:保持默认值“AIUI通用语义模型”。 管理技能配置:English情景模式下,不支持开启系统预置技能,仅支持开启自定义技能,相应操作请参考配置应用需要的技能。 (可选)开启闲聊技能:可选能力,操作请参考(可选)开启闲聊功能。 模拟测试:操作请参考模拟测试。 图18 English情景模式 单击如图18所示界面右上方的“保存修改”。 界面提示“保存成功”,说明应用的English情景模式配置完成。
  • 创建应用 访问科大讯飞的AIUI开放平台。 在界面上方的主菜单中,单击“我的应用”,进入“我的应用”页面。 单击“创建应用”,进入“创建应用”页面,如图1所示。 参数配置说明,如下所示: 应用名称:应用名称。 应用分类:从下拉框中选择当前应用所属分类。应用分类可以任意选择,不影响实际使用。 设备信息:勾选设备具备的条件。 应用描述:应用描述。 图1 创建应用 单击“确定创建”。界面提示“创建成功”,并弹出如图2所示的对话框。 图2 选择设备需要的AI能力 选择并开启设备需要的AI能力后,单击“确定”。 应用创建成功,自动进入新增应用的“应用配置”页面。
  • 配置应用 在界面上方的主菜单中,单击“我的应用”。 单击新增应用所在行的图标,进入“应用配置”页面。 图3 应用配置页面 配置“自然语言模型”,保持默认值“AIUI通用语义模型”。 单击“管理技能配置”,弹出“配置应用需要的技能”对话框,如图4所示。 在“自定义”区域,找到创建的技能,需要依次完成如下操作: 开启卡片区域右上角的开关。 单击卡片区域右下角的开关,在弹出的“技能设置”对话框中选择需要使用的技能版本。 此时,应用已具备基础的对话能力,可以回答已配置的语料内容。 图4 配置应用需要的技能 单击右上方的“保存配置”。界面提示“保存成功”,回到“应用配置”页面。 单击界面右上方的“保存修改”。界面提示“保存成功”,说明应用配置完成。
  • (可选)创建问答库 星火交互认知大模型应用,支持创建问答库。非必须创建,请根据实际情况选择使用。 在界面上方的主菜单中,单击“技能工作室”。 选择“我的问答库”页签,单击“创建问答库”。 弹出“创建问答库”对话框,如图3所示。参数设置说明如下所示: 问答类型:选择“文档问答”。 问答库名称:请自定义名称,示例:robot。 图3 创建问答库 单击“创建”,进入“知识基本信息”页面,如图4所示。 可单击“下载模板”,将模板下载至本地,基于模板修改为实际的内容后上传至当前页面。 注意:MetaStudio服务目前仅支持读取docx(包含图文)、txt和md格式,其他格式暂不支持。 docx格式说明:可以没有标题和分级标题, 如需添加标题和分级标题,请使用word标准格式,如图5和图6所示。 txt格式说明:文档内容当前仅支持纯文本,一行对应一条知识。 星火大模型会理解文档库文档的内容,重新组织语言来回答问题,不会完全按照问答对提供的答案去答复。 图4 知识基本信息 图5 标题 图6 分级标题 单击“保存文档”。等待文档名称右侧的状态,从“解析中”变为“已解析未发布”,如图7所示。 图7 保存文档 单击界面右上方的“构建发布”。发布成功后,文档名称右侧的状态更新为“发布成功”,如图8所示。 图8 构建发布
  • (可选)新增English情景模式 前面的所有操作,都是main情景模式下的配置,如果智能交互配置时,语言选择“中文”,则main情景模式下的配置生效。 如果智能交互配置时,语言选择“英文”,当前应用需要新增English情景模式,才能对话成功。 操作步骤,如下所示: 在界面上方的主菜单中,单击“我的应用”。 单击新增应用所在行的图标,进入“应用配置”页面。 图21 应用配置页面 单击界面最上方的“情景模式”右侧的“+”图标,弹出“新增情景模式”对话框。 一个应用可以增加多个情景模式,每个情景模式相互独立,互不干扰。 参数配置说明,如下所示: 情景模式名称:必须配置为“English”。 保持“语音语义”不变。 图22 新增情景模式 单击“确定”,English情景模式新增成功。 界面参数配置说明,如下所示: 语音识别:从下拉框中选择“通用-英文-进场”。 自然语言模型:保持默认值“星火交互认知大模型”。 管理技能配置:English情景模式下,不支持开启系统预置技能,仅支持开启自定义技能,相应操作请参考配置应用需要的技能。 (可选)开启闲聊技能:可选能力,操作请参考(可选)开启闲聊功能。 模拟测试:操作请参考模拟测试。 图23 English情景模式 单击如图23所示界面右上方的“保存修改”。 界面提示“保存成功”,说明应用的English情景模式配置完成。
  • 配置应用 在界面上方的主菜单中,单击“我的应用”。 单击新增应用所在行的图标,进入“应用配置”页面。 图9 应用配置页面 配置“自然语言模型”,从下拉框中选择“星火交互认知大模型”。 单击“管理技能配置”,弹出“配置应用需要的技能”对话框,如图10所示。 需要依次打开如下开关: 在“自定义”区域,找到创建的技能。先开启开关,再单击右下角的开关,在弹出的“技能设置”对话框中,选择需要使用的技能版本。 此时,应用已具备基础的对话能力,可以回答已配置的语料内容。 开启问答库(示例:robot)。问答库的创建操作,请参考(可选)创建问答库。 图10 配置应用需要的技能 单击右上方的“保存配置”。界面提示“保存成功”,回到“应用配置”页面。 单击界面右上方的“保存修改”。界面提示“保存成功”,说明应用配置完成。
  • 创建应用 访问科大讯飞的AIUI开放平台。 在界面上方的主菜单中,单击“我的应用”,进入“我的应用”页面。 单击“创建应用”,进入“创建应用”页面,如图1所示。 参数配置说明,如下所示: 应用名称:应用名称。 应用分类:从下拉框中选择当前应用所属分类。应用分类可以任意选择,不影响实际使用。 设备信息:勾选设备具备的条件。 应用描述:应用描述。 图1 创建应用 单击“确定创建”。界面提示“创建成功”,并弹出如图2所示的对话框。 图2 选择设备需要的AI能力 选择并开启设备需要的AI能力后,单击“确定”。 应用创建成功,自动进入新增应用的“应用配置”页面。
  • 角色 角色界面详情,如图1所示。 图1 角色界面 角色界面说明,如表1所示。 表1 界面元素说明 界面元素 说明 定制数字人 单击“定制数字人”,跳转至形象制作页面,界面详情和操作指导,详见创建分身数字人定制任务。 关键词搜索框,可输入数字人名称进行精准搜索。 示例:云岚。 刷新图标。如果有关键词,按照关键词进行刷新展示;如果没有关键词,恢复为默认展示。 筛选条件 支持通过角色、性别、姿势、行业、区域和分辨率的维度,筛选展示下方的数字人。 数字人列表 默认展示全量数字人。单击数字人形象,自动替换至智能交互预览界面中。
  • 背景 背景界面详情,如图2所示。 图2 背景界面 背景界面说明,如表2所示。 表2 界面元素说明 界面元素 说明 本地导入 单击“本地导入”,从本地选择PNG、JPG、JPEG和BMP格式的图片上传。 也支持直接拖拽本地图片至图片列表区域,完成上传操作。 关键词搜索框,可输入图片名称进行精准搜索。 示例:科技。 筛选条件 支持通过背景图片来源的维度,筛选展示下方的图片。 图片列表 默认展示全量图片。选中场景,单击图片,可以替换当前场景的背景。 第一张图为透明背景,单击透明背景后,仅智能交互预览页面会替换为透明背景。如果需要透明背景正式生效,还需要设置智能交互SDK的如下参数,任选其一设置即可。 设置create接口参数config内的配置参数useDefaultBackground,其默认值为true,需修改为false。 代码示例,如下所示: HwICSUiSdk.create({ serverAddress: 'serverAddress', onceCode: 'onceCode', robotId: 'robotId', containerId: 'ics-root', config: { useDefaultBackground: false }, }); 设置setConfig接口参数useDefaultBackground,其默认值为true,需修改为false。 代码示例,如下所示: HwICSUiSdk.setConfig({ useDefaultBackground: false }); 进行智能交互时,透明背景支持的浏览器及其版本,详见客户端SDK参考-快速入门-表3。
  • 步骤四:新建AstroZero数据源 创建一个AstroZero数据源,用于对接AstroZero环境。 在AstroZero服务控制台的左侧导航栏中,单击“Astro大屏应用”,进入AstroCanvas服务控制台。 在AstroCanvas已购买的实例中,单击“进入首页”,进入AstroCanvas界面。 在顶部菜单栏中,选择“数据中心”,单击“新建数据源”。 选择“AstroZero”,配置数据源参数。 图32 新建数据源 表7 新建数据源参数说明 参数 说明 示例 数据源名称 新建数据源的名称,用于标识该数据源。长度为1~32个字符,可包括中文、字母、数字及下划线,且不能以下划线开头或结尾。 Zero对接Canvas数据源 域名 AstroZero环境的域名,需要携带“https://”。 步骤三:获取域名、客户端ID和密码中获取的域名 客户端ID 调用AstroZero接口前,需要配置“客户端模式”OAuth鉴权的客户端ID。 步骤三:获取域名、客户端ID和密码中获取的client_id 客户端密码 调用AstroZero的接口前,需要配置“客户端模式”OAuth鉴权的客户端鉴权密钥。 步骤三:获取域名、客户端ID和密码中获取的client_secret 单击“连接测试”,显示“连接成功”,表示数据源可以调通。 单击“保存”,完成数据源的创建。
  • (可选)为用户设置Topic/消费组权限 5.x基础版不支持此操作。 创建用户时会设置默认的Topic和消费组权限,如果需要修改默认权限,则可以在此处重新为用户设置。管理员默认具有所有权限,无需手动添加。 单击用户名称,进入用户详情页面。 在“Topic权限”/“消费组权限”页签中,单击添加权限,弹出“添加权限”对话框。 勾选需要添加权限的Topic或者消费组,选择所需的特殊权限,单击“确定”。 指定Topic或者消费组的特殊权限会覆盖默认权限,如图1中,test01的实际权限为发布+订阅。 图1 用户详情页面
共100000条