华为云用户手册

  • 优化Spark Shuffle参数提升Hudi写入效率 开启spark.shuffle.readHostLocalDisk=true,本地磁盘读取shuffle数据,减少网络传输的开销。 开启spark.io.encryption.enabled=false,关闭shuffle过程写加密磁盘,提升shuffle效率。 开启spark.shuffle.service.enabled=true,启动shuffle服务,提升任务shuffle的稳定性。 配置项 集群默认值 调整后 --conf spark.shuffle.readHostLocalDisk false true --conf spark.io.encryption.enabled true false --conf spark.shuffle.service.enabled false true
  • Spark加工Hudi表时其他参数优化 设置spark.sql.enableToString=false,降低Spark解析复杂SQL时候内存使用,提升解析效率。 设置spark.speculation=false,关闭推测执行,开启该参数会带来额外的cpu消耗,同时Hudi不支持启动该参数,启用该参数写Hudi有概率导致文件损坏。 配置项 集群默认值 调整后 --conf spark.sql.enableToString true false --conf spark.speculation false false
  • 初始化Hudi表时,可以使用BulkInsert方式快速写入数据 示例: set hoodie.combine.before.insert=true; --入库前去重,如果数据没有重复 该参数无需设置。 set hoodie.datasource.write.operation = bulk_insert; --指定写入方式为bulk insert方式。 set hoodie.bulkinsert.shuffle.parallelism = 4; --指定bulk_insert写入时的并行度,等于写入完成后保存的分区parquet文件数。 insert into dsrTable select * from srcTabble
  • 优化shuffle并行度,提升Spark加工效率 所谓的shuffle并发度如下图所示: 集群默认是200,作业可以单独设置。如果发现瓶颈stage(执行时间长),且分配给当前作业的核数大于当前的并发数,说明并发度不足。通过以下配置优化。 场景 配置项 集群默认值 调整后 Jar作业 spark.default.parallelism 200 按实际作业可用资源2倍设置 SQL作业 spark.sql.shuffle.partitions 200 按实际作业可用资源2倍设置 hudi入库作业 hoodie.upsert.shuffle.parallelism 200 非bucket表使用,按实际作业可用资源2倍设置 动态资源调度情况下(spark.dynamicAllocation.enabled= true)时,资源按照spark.dynamicAllocation.maxExecutors评估。
  • 实时任务接入 实时作业一般由Flink Sql或Sparkstreaming来完成,流式实时任务通常配置同步生成compaction计划,异步执行计划。 Flink SQL作业中sink端Hudi表相关配置如下: create table denza_hudi_sink ( $HUDI_SINK_SQL_REPLACEABLE$ ) PARTITIONED BY ( years, months, days ) with ( 'connector' = 'hudi', --指定写入的是Hudi表。 'path' = 'obs://XXXXXXXXXXXXXXXXXX/', --指定Hudi表的存储路径。 'table.type' = 'MERGE_ON_READ', --Hudi表类型。 'hoodie.datasource.write.recordkey.field' = 'id', --主键。 'write.precombine.field' = 'vin', --合并字段。 'write.tasks' = '10', --flink写入并行度。 'hoodie.datasource.write.keygenerator.type' = 'COMPLEX', --指定KeyGenerator,与Spark创建的Hudi表类型一致。 'hoodie.datasource.write.hive_style_partitioning' = 'true', --使用hive支持的分区格式。 'read.streaming.enabled' = 'true', --开启流读。 'read.streaming.check-interval' = '60', --checkpoint间隔,单位为秒。 'index.type'='BUCKET', --指定Hudi表索引类型为BUCKET。 'hoodie.bucket.index.num.buckets'='10', --指定bucket桶数。 'compaction.delta_commits' = '3', --compaction生成的commit间隔。 'compaction.async.enabled' = 'false', --compaction异步执行关闭。 'compaction.schedule.enabled' = 'true', --compaction同步生成计划。 'clean.async.enabled' = 'false', --异步clean关闭。 'hoodie.archive.automatic' = 'false', --自动archive关闭。 'hoodie.clean.automatic' = 'false', --自动clean关闭。 'hive_sync.enable' = 'true', --自动同步hive表。 'hive_sync.mode' = 'jdbc', --同步hive表方式为jdbc。 'hive_sync.jdbc_url' = '', --同步hive表的jdbc url。 'hive_sync.db' = 'hudi_cars_byd', --同步hive表的database。 'hive_sync.table' = 'byd_hudi_denza_1s_mor', --同步hive表的tablename。 'hive_sync.metastore.uris' = 'thrift://XXXXX:9083 ', --同步hive表的metastore uri。 'hive_sync.support_timestamp' = 'true', --同步hive表支持timestamp格式。 'hive_sync.partition_extractor_class' = 'org.apache.hudi.hive.MultiPartKeysValueExtractor' --同步hive表的extractor类。 ); Spark streaming写入Hudi表常用的参数如下(参数意义与上面flink类似,不再做注释): hoodie.table.name= hoodie.index.type=BUCKET hoodie.bucket.index.num.buckets=3 hoodie.datasource.write.precombine.field= hoodie.datasource.write.recordkey.field= hoodie.datasource.write.partitionpath.field= hoodie.datasource.write.table.type= MERGE_ON_READ hoodie.datasource.write.hive_style_partitioning=true hoodie.compact.inline=true hoodie.schedule.compact.only.inline=true hoodie.run.compact.only.inline=false hoodie.clean.automatic=false hoodie.clean.async=false hoodie.archive.async=false hoodie.archive.automatic=false hoodie.compact.inline.max.delta.commits=50 hoodie.datasource.hive_sync.enable=true hoodie.datasource.hive_sync.partition_fields= hoodie.datasource.hive_sync.database= hoodie.datasource.hive_sync.table= hoodie.datasource.hive_sync.partition_extractor_class=org.apache.hudi.hive.MultiPartKeysValueExtractor 父主题: Bucket调优示例
  • 离线Compaction配置 对于MOR表的实时业务,通常设置在写入中同步生成compaction计划,因此需要额外通过DataArts或者脚本调度SparkSQL去执行已经产生的compaction计划。 执行参数 set hoodie.compact.inline = true; --打开compaction操作。 set hoodie.run.compact.only.inline = true; --compaction只执行已生成的计划,不产生新计划。 set hoodie.cleaner.commits.retained = 120; --清理保留120个commit。 set hoodie.keep.max.commits = 140; --归档最大保留140个commit。 set hoodie.keep.min.commits = 121; --归档最小保留121个commit。 set hoodie.clean.async = false; --打开异步清理。 set hoodie.clean.automatic = false; --关闭自动清理,防止compaction操作触发clean。 run compaction on $tablename; --执行compaction计划。 run clean on $tablename; --执行clean操作清理冗余版本。 run archivelog on $tablename; --执行archivelog合并清理元数据文件。 关于清理、归档参数的值不宜设置过大,会影响Hudi表的性能,通常建议: hoodie.cleaner.commits.retained = compaction所需要的commit数的2倍 hoodie.keep.min.commits = hoodie.cleaner.commits.retained + 1 hoodie.keep.max.commits = hoodie.keep.min.commits + 20 执行compaction后再执行clean和archive,由于clean和archivelog对资源要求较小,为避免资源浪费,使用DataArts调度的话可以compaction作为一个任务,clean、archive作为一个任务分别配置不同的资源执行来节省资源使用。 执行资源 Compaction调度的间隔应小于Compaction计划生成的间隔,例如1小时左右生成一个Compaction计划的话,执行Compaction计划的调度任务应该至少半小时调度一次。 Compaction作业配置的资源,vcore数至少要大于等于单个分区的桶数,vcore数与内存的比例应为1:4即1个vcore配4G内存。 父主题: Bucket调优示例
  • Spark写Hudi各种写入模式参数规范说明 类型 说明 开启参数 场景选择 特点 upsert update + insert Hudi默认写入类型,写入具有更新能力。 默认,无需参数开启。 SparkSQL: set hoodie.datasource.write.operation=upsert; DataSource Api: df.write .format("hudi") .options(xxx) .option("hoodie.datasource.write.operation", "upsert") .mode("append") .save("/tmp/tablePath") 默认选择。 优点: 支持小文件合并。 支持更新。 缺点: 写入速度中规中矩。 append 数据无更新直接写入 Spark:Spark侧没有纯append模式可使用bulk insert模式替代。 SparkSQL: set hoodie.datasource.write.operation = bulk_insert; set hoodie.datasource.write.row.writer.enable = true; DataSource Api: df.write .format("hudi") .options(xxx) .option("hoodie.datasource.write.operation", "bulk_insert") .option("hoodie.datasource.write.row.writer.enable", "true") .mode("append") .save("/tmp/tablePath") 追求高吞吐,无数据更新场景。 优点: 写入速度最快。 缺点: 无小文件合并能力。 无更新能力。 需要clustering合并小文件。 delete 删除操作 无需参数,直接使用delete语法即可: delete from tableName where primaryKey='id1'; SQL删除数据数据场景。 和upsert类型一样。 Insert overwrite 覆写分区 无需参数,直接使用insert overwrite语法即可: insert overwrite table tableName partition(dt ='2021-01-04') select * from srcTable; 分区级别重新。 覆写分区。 Insert overwrite table 覆写全表 无需参数,直接使用insert overwrite语法即可: insert overwrite table tableName select * from srcTable; 全部重写。 覆写全表。 Bulk_insert 批量导入 SparkSQL: set hoodie.datasource.write.operation = bulk_insert; set hoodie.datasource.write.row.writer.enable = true; DataSource Api: df.write .format("hudi") .options(xxx) .option("hoodie.datasource.write.operation", "bulk_insert") .option("hoodie.datasource.write.row.writer.enable", "true") .mode("append") .save("/tmp/tablePath") 建议表初始化搬迁的时候使用。 和append模式一样。
  • 第三方平台的直播画面突然中断是怎么回事? 可能是MetaStudio控制台自动退出登录导致。 排查和修改方法,如下所示: 在MetaStudio控制台直播间开播成功时,需要参考图1,单击URL地址右侧的拦截图标,从下拉框中选择允许弹出窗口。 图1 直播间开播 单击“完成”,会新增弹出如图2和图3所示的2个浏览器窗口。 MetaStudio控制台超过10分钟不操作,默认会退出登录,导致第三方直播平台的直播画面也中断。需要确保图3的窗口始终是打开的,直播过程中一定不能关闭,这样第三方直播平台的直播才能顺利完成。 图2 直播窗口 图3 确保直播过程不中断的窗口 父主题: 视频直播
  • 2024/11/6- WeLink PC端升级公告(NEW) 尊敬的华为云WeLink客户: 为进一步提升用户体验,华为云WeLink消息服务计划于2024年11月8日升级用户状态(头像右下角小绿点)服务,升级后WeLink PC端最低支持V7.13版本。 为避免影响您查看他人的在线状态,请尽快升级到WeLink PC最新版本,官网下载地址:https://www.huaweicloud.com/product/welink-download.html 。 给您带来不便,敬请谅解!如您有任何问题,可随时通过WeLink帮助与反馈或服务热线( 4000-955-988或950808 )与我们联系。 感谢您对华为云WeLink的支持! 华为云WeLink PC端用户状态升级公告.docx
  • 配置云手机服务器国内流量分流(可选) 参考以上“操作步骤”第6步,在国内云手机所在Region,购买EIP、公网NAT网关,并配置好SNAT规则。此处有一个差异,不需要配置路由表目的地址0.0.0.0/0到NAT网关。 参考以上“操作步骤”第2、3步,进入云手机服务器详情页面,找到“路由表”。 单击路由表名称,进入路由表页面,单击“添加路由”。 在弹出的对话框中,目的地址输入需要分流到国内的IP地址或网段,下一跳类型选择“NAT网关”,下一跳选择第1步购买的公网NAT网关,然后确定。 如果有其它IP地址或网段需要分流,重复第4步添加。
  • 升级AOSP版本 方法一(保留用户数据) 云手机重启接口支持切换AOSP镜像版本,同时保留用户数据,操作详情请参考重启云手机实例。 注意: 重启接口支持将低版本镜像升级成高版本,但不支持将高版本镜像降级为低版本。 如果您没有保留用户数据的强烈诉求,推荐您使用方法二切换AOSP版本,应用不兼容的风险更小。 方法二(不保留用户数据) 云手机重置接口支持切换AOSP镜像版本,操作详情请参考重置云手机实例。 注意: 重置接口支持将低版本镜像升级成高版本,也支持将高版本镜像回退为低版本。
  • 配置应用部署步骤并部署应用 配置应用部署步骤。 切换到“部署步骤”页签,单击“编辑”对部署步骤进行参数配置。 安装JDK 表2 安装JDK参数说明 参数项 是否必填 说明 步骤显示名称 是 步骤添加后在部署步骤显示的名称。 仅支持汉字、英文字母、数字、空格、或-_,;:./()()符号,其中空格不可在名称开头或结尾使用,长度为1-128。 环境 是 选择当前资源类型为主机集群的环境,作为部署对象。 jdk版本 是 选择要安装的jdk版本。 jdk安装路径 是 jdk的安装路径。 控制选项 否 配置是否启用该操作。 当前步骤部署失败后,应用是否继续部署后续的步骤。 配置是否使用sudo权限部署该步骤。 安装Tomcat 表3 安装Tomcat参数说明 参数项 是否必填 说明 步骤显示名称 是 步骤添加后在部署步骤显示的名称。 仅支持汉字、英文字母、数字、空格、或-_,;:./()()符号,其中空格不可在名称开头或结尾使用,长度为1-128。 环境 是 选择当前资源类型为主机集群的环境,作为部署对象。 tomcat版本 是 选择要安装的tomcat的版本号。 安装路径 是 tomcat的安装路径。 http端口 是 默认为8080。 ajp端口 是 默认为8009。 shutdown端口 是 默认为8005。 控制选项 否 配置是否启用该操作。 当前步骤部署失败后,应用是否继续部署后续的步骤。 配置是否使用sudo权限部署该步骤。 停止Tomcat服务 表4 停止Tomcat服务参数说明 参数项 是否必填 说明 步骤显示名称 是 步骤添加后在部署步骤显示的名称。 仅支持汉字、英文字母、数字、空格、或-_,;:./()()符号,其中空格不可在名称开头或结尾使用,长度为1-128。 环境 是 选择当前资源类型为主机集群的环境,作为部署对象。 服务操作类型 是 配置启动服务或者停止服务。 服务对应的绝对路径 是 Tomcat服务的路径。 控制选项 否 配置是否启用该操作。 当前步骤部署失败后,应用是否继续部署后续的步骤。 配置是否使用sudo权限部署该步骤。 选择部署来源 表5 选择部署来源参数说明 参数项 是否必填 说明 步骤显示名称 是 步骤添加后在部署步骤显示的名称。 仅支持汉字、英文字母、数字、空格、或-_,;:./()()符号,其中空格不可在名称开头或结尾使用,长度为1-128。 选择源类型 是 包括“制品仓库”和“构建任务”两种类型。 环境 是 选择当前资源类型为主机集群的环境,作为部署对象。 选择软件包 是 可以选择制品仓库已有软件包,也可以选择本地上传的软件包/文件。 package_url是软件包在制品仓库中的路径。 说明: 本地上传的软件包/文件会上传到到制品仓库,可以重复使用。 下载到主机的部署目录 是 软件包下载后的路径。 控制选项 否 配置是否启用该操作。 当前步骤部署失败后,应用是否继续部署后续的步骤。 配置是否使用sudo权限部署该步骤。 此处的部署来源以选择“制品仓库”为例,进行相应的参数说明。如部署来源选择“构建任务”,相关信息可参考用户指南里选择部署来源章节。 启动Tomcat服务 表6 启动Tomcat服务参数说明 参数项 是否必填 说明 步骤显示名称 是 步骤添加后在部署步骤显示的名称。 仅支持汉字、英文字母、数字、空格、或-_,;:./()()符号,其中空格不可在名称开头或结尾使用,长度为1-128。 环境 是 选择当前资源类型为主机集群的环境,作为部署对象。 服务操作类型 是 配置启动服务或者停止服务。 服务对应的绝对路径 是 Tomcat服务的路径。 http端口 是 Tomcat服务监听的http端口。 ajp端口 是 Tomcat服务监听的ajp端口。 shutdown端口 是 Tomcat服务监听的shutdown端口。 等待时间 是 等待已设置的时长后将监测服务是否已成功启动。可根据服务启动实际所需时间进行调整,如时间设置不合理,会导致检测结果无效。 输入限制:0-300,单位“秒”。 组件监控 否 配置是否启用应用运维服务( AOM ),该服务提供指标监控、日志查询、告警功能(勾选后自动安装数据采集器 ICAgent,仅支持华为云linux主机,且与此应用在同一region下),详细请参见配置组件监控。 服务关联组件 是 如勾选“组件监控”,则会配置此项参数。 此处选择或新建当前启动服务需要关联的组件。 日志路径 否 如勾选“组件监控”,则会配置此项参数。 填写服务的日志文件路径。日志文件仅支持以.log、.trace和.out结尾的文件,可以配置文件夹路径,且最多配置10个路径 控制选项 否 配置是否启用该操作。 当前步骤部署失败后,应用是否继续部署后续的步骤。 配置是否使用sudo权限部署该步骤。 URL健康测试 表7 URL健康测试参数说明 参数项 是否必填 说明 步骤显示名称 是 步骤添加后在部署步骤显示的名称。 仅支持汉字、英文字母、数字、空格、或-_,;:./()()符号,其中空格不可在名称开头或结尾使用,长度为1-128。 环境 是 选择当前资源类型为主机集群的环境,作为部署对象。 重试次数 是 失败后重试次数,超过重试次数服务未启动会导致URL检测失败。 间隔时间 是 两次重试的间隔时间。 输入限制:0-60,单位“秒”。 测试路径 是 待测试服务的路径,可以添加多个。 控制选项 否 配置是否启用该操作。 当前步骤部署失败后,应用是否继续部署后续的步骤。 ”URL健康测试”的参数填写完成后,即完成了所有的参数配置。更多应用配置请参考配置CodeArts Deploy应用的参数。 部署应用。 配置好上述参数后,单击“保存并部署”即可开始部署应用。 应用部署成功。 应用部署失败时,可参考以下流程排查原因。 查看自动匹配解决方案 如果应用部署失败,可单击原子操作下的“查看解决方案”,前往对应的帮助中心页面。 手动搜索解决方案 如果所匹配的帮助中心页面未能解决问题,可将错误信息(即框图内容)粘贴到帮助中心的搜索栏,进行手动搜索解决方案。 发起技术支持申请 如果仍未能搜索到可行的解决方案,您可新建工单申请华为工程师协助。
  • 组件通用设置 在AstroCanvas某个可视化页面中,单击画布中的某一个组件,组件上方会出现配置项面板,如图3。AstroCanvas中组件的配置项菜单分为卡片、指标、图形、图例、提示、参考线和坐标轴七大类(不同的组件展示有所不同,请以实际展示的为准)。 图3 组件配置项面板 图4 组件七大分类设置效果 卡片是指包裹图表组件的外层架构,可以理解为组件由卡片中基础元素(卡片标题、图表、卡片背景、卡片边框)和图表元素构成。 图形是指组件中,实现 数据可视化 的具体图形表达元素,例如饼图的扇区、柱状图的柱子、折线图的线条、拐点等。 图例是指在多维度可视化图形表达中,用以区分不同维度可视化图形的提示标识。 提示(悬浮提示)主要用于展示可视化图表组件,在具体维度节点的具体指标展示。 指标是指可视化组件中,对除可视化图形之外的具体补充,即主要以文字和数字的表现形式,为可视化组件提供具体数值的参考。 坐标轴是指对图表组件,进行坐标系相关样式、颜色、位置和行为的设置。 参考线是指为图表组件添加可视化的参考标准,为图表中数据提供具体的参考依据。
  • AstroCanvas中组件 介绍AstroCanvas支持的组件类型,以及每个类型下所包含的具体组件,帮助您快速了解各组件的位置分类,更加高效的开发可视化应用。目前AstroCanvas中支持如下类型的组件,各组件详情介绍请参见组件介绍。当预置组件不满足需求时,还可以自定义组件并上传到AstroCanvas中使用,详情请参见自定义组件说明。 当前仅“Astro大屏应用专业版”实例,才提供Echarts图表组件。 图2 AstroCanvas中组件
  • 什么是组件? 组件(即Widget)是可复用的页面组成元素,一个页面由一个或多个Widget拼装而成。如果将一个页面看成拼图游戏的完整图案,那么Widget相当于拼图的每一小块。 Widget的运行依赖Library,如果缺少相应的Library,则Widget不能正常运行。如果页面要使用前端框架或组件库,例如流行的Vue、Bootstrap、ElementUI等,需要将其制作成Library资产,然后上传到环境中使用。
  • 图例 图例是指在多维度可视化图形表达中,用以区分不同维度可视化图形的提示标识。 图8 图例 显示图例:是否展示图例。图例文字内容来源于数据模型下“s”的取值。 图例标记:设置图例小图标形状。 图例宽高:设置图例的宽度和高度。 图例间隔:设置图例之间的间隔。 字体:设置图例的字体、颜色和大小。图例文字内容来源于数据模型下“s”的取值。 左间距:图例到折线图组件左侧距离占组件高度的百分比或图例位置的对齐方式设置。 上间距:图例到折线图组件顶部距离占组件高度。 翻页按钮:设置翻页按钮颜色。 翻页按钮不激活:设置翻页按钮不激活时的颜色。 自定义图例显示:开启后,可调整图例名称显示字符长度。默认关闭,即显示图例所有字符。
  • 坐标轴 坐标轴是指对图表组件,进行坐标系相关样式、颜色、位置和行为的设置。 图11 坐标轴 x轴 X轴:是否显示X轴。 轴标题:X轴标题。 字体:坐标轴字体、颜色、大小设置。 标题偏移:标题相对于轴线的偏移。 轴线:是否显示轴线,支持设置轴线颜色。 刻度:是否显示刻度。 刻度标签:刻度标签样式,包括是否自动调节标签、显示所有标签。 刻度标签字体:刻度标签的字体、字体颜色、字体大小设置。 标签行为:标签字数过多时是否进行处理,包括标签字数过多换行、标签字数过多省略和标签字数过多不做处理。 单行字符数:设置标签单行显示的文字个数,一个中文算两个字符。“标签行为”设置为“标签字数过多换行”或“标签字数过多省略”时,才需要配置。 标签旋转:标签旋转角度。 网格线:是否显示网格线。 y轴 Y轴:是否显示Y轴。 轴标题:Y轴标题。 字体:坐标轴字体、颜色、大小设置。 标题偏移:标题相对于轴线的偏移。 轴线:是否显示轴线,支持设置轴线颜色。 刻度:是否显示刻度。 刻度标签字体:刻度标签的字体、字体颜色、字体大小设置。 最小间隔:坐标轴最小间隔大小。 标签行为:标签字数过多时是否进行处理,包括标签字数过多换行、标签字数过多省略和标签字数过多不做处理。 单行字数:设置标签单行显示的文字个数。“标签行为”设置为“标签字数过多换行”或“标签字数过多省略”时,才需要配置。 网格线:是否显示网格线。 轴起始值:设置Y轴的起始数值。为了方便数据展示,输入为接入数据最大值时,图表Y轴起始值为最大值的一半。 左Y轴单位:设置左侧Y轴的单位。 标签展示:设置Y轴标签的展示样式,如默认或计数单位。
  • 参考线 参考线是指为图表组件添加可视化的参考标准,为图表中数据提供具体的参考依据。 图12 参考线 统一配置:设置参考线两端的样式,如圆形、矩形和三角形等。 图13 Y轴参考线两端样式 Y轴参考线 Y轴参考线:是否显示Y轴参考线。 参考线:设置已有参考线的颜色和线型,单击“新增Y轴参考线”,可新增参考线。单击对应参考线后的,可删除参考线。 X轴参考线 X轴参考线:是否显示X轴参考线。 参考线:设置已有参考线的颜色和线型,单击“新增X轴参考线”,可新增参考线。单击对应参考线后的,可删除参考线。
  • 图形 图形是指组件中,实现数据可视化的具体图形表达元素,例如饼图的扇区、柱状图的柱子、折线图的线条、拐点等。 图7 图形 颜色:设置组件中图表的图形颜色。 统一配置 折线类型:设置图形中折线类型,包括平滑和不平滑。 折线宽度:设置图形中折线的宽度。 拐点尺寸:设置拐点尺寸。 数据标签:是否显示数据标签,支持设置标签颜色。 数据标签最大值/最小值/平均值:设置数据标签的最大值、最小值或平均值。 数据系列 系列名称:原始数据中默认的系列名称,可通过设置“显示名称”,进行修改。 显示名称:自定义图表中系列的显示名称。 折线类型:设置图形中折线类型,包括平滑和不平滑。 折线宽度:设置图形中折线的宽度。 折线颜色:设置折线颜色,支持单色和渐变色。如果开启了阈值线,渐变会随着阈值线值变化。 折线不透明度:设置折线的不同透明度。 拐点尺寸:设置拐点尺寸。 拐点颜色:设置拐点显示的颜色。 拐点不透明度:设置拐点不透明度。 区域颜色:设置折线图中区域颜色。 数据标签:是否显示数据标签,支持设置标签颜色、前缀和后缀。 数据标签最大值/最小值/平均值:设置数据标签的最大值、最小值或平均值。
  • 指标 指标是指可视化组件中,对除可视化图形之外的具体补充,即主要以文字和数字的表现形式,为可视化组件提供具体数值的参考。 图14 指标 显示指标:是否显示指标。 指标内容:设置指标内容。 指标字体:设置指标内容的字体、大小、颜色等。 指标类型:设置指标类型,支持总和、平均值和自定义。 数值内容:“指标类型”设置为“自定义”时,支持自定义数值内容。 数值字体:设置数值字体、大小、颜色等。 数值位数:设置数值小数点后的位数。
  • 卡片 卡片是指包裹图表组件的外层架构,可以理解为组件由卡片中基础元素(卡片标题、图表、卡片背景、卡片边框)和图表元素构成。 图3 卡片 卡片装饰:卡片装饰设置,可根据自身的业务需求选择不同的卡片样式。单击“清除样式”,可清除已设置的装饰样式。 标题 标题:是否显示该组件标题。 内容:组件标题内容。 字体:组件标题的字体、大小、颜色等设置。 对齐:标题相对于组件的对齐方式。 标题背景色:设置组件标题的背景颜色。 内边距:标题与组件框上下左右四个边界之间的距离,单位默认px。 标题偏移:组件标题与多区域折线图之间的偏移量。 背景 背景色:设置组件卡片的背景颜色。 边框:组件卡片边框设置,支持无边框、全边框和角边框三种样式。设置为全边框和角边框时,支持设置组件外圈边框的线型、圆角等。 样式:选择图片时,图片显示的样式,支持普通、居中、拉伸和平铺四种样式。 选择图片:使用本地的图片作为组件背景,支持新增目录和子目录,便于对图片进行分类管理。推荐使用JPG、JPEG、PNG或GIF格式的图片,且每张图片不能超过50MB。 特效:组件是否高亮显示,支持默认展示和跳转到页面时展示。 边距:组件中图表距离整个组件四边(上、下、左、右)的距离(参见图2),默认为0,即铺满整个组件。 参考模板:系统预置的组件样式模板,支持默认和带标记模板等。 图表背景:设置图表的背景颜色、圆角和内边距。
  • 批量复制自定义组件到工作空间 参考登录AstroCanvas界面中操作,登录AstroCanvas界面。 在主菜单中,选择“我的资产”。 在左侧导航栏中,单击“我的组件”。 选中多个组件,单击“复制到工作空间”。 您可以通过鼠标框选、“Ctrl+单击”、“Ctrl+A”或“Ctrl+Shift+框选”,来选择多个组件。 图19 复制多个组件到目标工作空间 在弹出的页面,选择目标工作空间,单击“确定”。
  • 更新组件 更新组件前,请先获取锁,否则更新按钮置灰不可用。 参考登录AstroCanvas界面中操作,登录AstroCanvas界面。 在主菜单中,选择“我的资产”。 在左侧导航栏中,单击“我的组件”。 将鼠标放在对应的组件上,单击,获取锁。 将鼠标放在对应的组件上,单击,进入更新组件页面。 图7 进入更新组件页面 在组件更新页面,上传新的组件、设置组件参数,单击“更新”。 图8 设置组件信息 将鼠标放在对应的组件上,单击,可查看到新版本的组件(如1.0.1)。 图9 查看组件版本 :单击该图标,可下载当前版本组件。 :单击该图标,可在线编辑该版本组件。
  • 批量删除自定义组件 参考登录AstroCanvas界面中操作,登录AstroCanvas界面。 在主菜单中,选择“我的资产”。 在左侧导航栏中,单击“我的组件”。 在待删除的自定义组件上,单击,获取锁。 选中已锁定的多个组件,单击“删除”。 您可以通过鼠标框选、“Ctrl+单击”、“Ctrl+A”或“Ctrl+Shift+框选”,来选择多个组件。 图20 批量删除组件 在弹出的确认框中,单击“确定”。
  • 编辑组件 参考登录AstroCanvas界面中操作,登录AstroCanvas界面。 在主菜单中,选择“我的资产”。 在左侧导航栏中,单击“我的组件”。 将鼠标放在对应的组件上,单击。 图10 编辑组件 在组件编辑页面,单击右上角的,获取锁。 按需在线修改组件文件,单击。 在弹出的提示框中,单击“确定”。 在组件更新页面,按需设置组件参数(如修改组件名称为TabsWidget_Update),单击“更新”。 图11 更新组件 返回我的组件页面,可查看到组件名称变为TabsWidget_Update。 图12 查看新组件 在组件上,单击,可查看到新版本的组件(如1.0.2)。 图13 组件新版本
  • 新建目录 参考登录AstroCanvas界面中操作,登录AstroCanvas界面。 在主菜单中,选择“我的资产”。 在左侧导航栏中,单击“我的组件”。 单击所有组件后的,选择“新增目录”。 输入目录名称,单击“确定”。 目录名称长度为1~64个字符,可包括中文、字母、数字及下划线,且不能以下划线开头或结尾。 图1 设置目录名称 目录创建完成后,支持修改目录名称、删除目录,也可以在当前目录下创建子目录。 图2 管理目录
  • Echarts组件设置 在Echarts组件设置中,可以设置ECharts组件的初始化代码块、实例化代码块、自定义事件和自定义动作。 图4 代码设置 初始化代码块:初始化代码块输入框是一个javascript的执行环境,该执行环境的目的是调用echarts的init方法创建实例,此处可配置初始化相关的操作,包括echarts的主题等。 图5 初始化代码块 单击“参数说明”,可查看初始化代码块的参数说明。 单击,可复制初始化代码。 单击,可最大化初始化代码块页面。 实例化代码块:和初始化代码块类似,实例化代码块的目的是构造echarts setOption所需要的option对象(setOption对象平台会自动执行)。AstroCanvas提供了上百种echarts组件,本质上是不同的实例化代码,这些实例化代码来自echarts官网的demo代码,例如https://echarts.apache.org/examples/zh/editor.html?c=line-simple。如果这些demo不满足您的需求,还可以在echarts开源社区选择合适的demo。 在实例化代码块中,还可以实现异步加载和引入第三方库,详情请参见异步加载和引入第三方库。 图6 实例化代码块 单击“参数说明”,可查看实例化代码块的参数说明。 单击,可复制实例化代码。 单击,可最大化实例化代码块页面。 自定义事件:echarts组件支持自定义扩展事件和交互,来扩展组件在系统中的交互能力。单击“新增自定义事件”,可新增事件。在事件实现中,编辑事件实现的代码,为echarts实例或组件实例的某个动作回调绑定发送事件的方法triggerCurrentEvent。单击“新增字段”,可定义发送事件时携带的参数字段。如何为自定义事件添加交互,请参见echarts组件自定义事件交互设置。 图7 自定义事件 自定义动作:echarts组件支持自定义动作,来响应事件。单击“新增自定义动作”,可新增动作。在动作实现中,编写触发动作的执行逻辑。入参的echartsInst可以使用echarts的API,widgetInst可以使用AstroCanvas组件通用的API。单击“新增参数”,可以定义触发动作时入参字段。如何为自定义动作添加交互,请参见echarts组件自定义动作交互设置。
  • 数据 在数据中,配置ECharts组件的数据来源,更多介绍请参见数据接入。 与其他组件不同的是,ECharts组件在数据配置流程中没有字段映射,而是直接改变实例化代码块的内容。 图12 设置组件数据源 将左侧表格字段拖拽到右侧配置中的代码块高亮处,如图13。如果简单的拖拽列方法无法满足需求,可以在代码中用“$data”获取数据配置结果,以javascript代码处理逻辑,如图14。 图13 拖拽字段 图14 通过“$data”实现
  • 图形 图形是指组件中,实现数据可视化的具体图形表达元素,例如饼图的扇区、柱状图的柱子、折线图的线条、拐点等。 图8 图形 统一配置 表头行高占比(%):设置表头的行高占比。 背景色:设置表头背景色。 对齐方式:设置表头对齐方式。 表头字体:设置表头的字体、大小和颜色等。 内容字体:设置表格内容的字体、大小和颜色等。 开启表头换行:是否开启表头换行。 排序:是否开启表头排序。开启后,单击图标,可对表头进行排序。 图9 开启表头排序 数据系列 列数据键值:原始数据中默认的系列名称,可通过设置“列名”,进行修改。文字内容来源于数据模型的取值。 列名:自定义图表中数据系列的显示名称。 列宽占比:设置该数据系列的列宽占比。 背景色:设置该数据系列的背景色。 对齐方式:设置该数据系列中数据的对齐方式,如水平居中、左侧等。 字体:设置数据系列中数据的字体、颜色和大小等。 表头字体:设置表头的字体、颜色和大小等。 排序:是否开启排序功能,开启后支持设置图标背景颜色、悬浮时的背景颜色和选中时的背景颜色等。
  • 配置 在配置中,设置组件的全局样式、表头设置、行、系列号等。 图4 配置 全局样式 表格行数:当前页显示多少行数据。 背景色:设置表格的背景颜色。 轮播:表格是否轮播。设置为“是”时,支持设置单行是否停顿、轮播速度和单行停顿时间。 横向滚动:是否开启横向滚动。 行配置 奇行背景色:设置奇数行数据的背景颜色。 偶行背景色:设置偶数行数据的背景颜色。 溢出文本:设置表格中超长文本的显示样式,如显示为省略号、换行显示和滚动显示。 图5 溢出文本 序列号:表格中序列号设置。 是否展示:表格中是否显示序列号。 序列号:设置序列号的名称。 列宽占比(%):设置序列号在表格中的列宽占比。 对齐方式:设置序列号对齐方式,如水平居中、居左和居右。 背景色:设置序列号的背景颜色。 半径:设置序列号的半径。 圆角:设置序列号圆角,0为直角。 字体:设置序列号的字体、大小和颜色等。 分页 是否启动:表格是否分页显示,分页模式下轮播无效。 行高:设置分页的行高,单位px。 单页数量:设置每页显示数据条数,以“,”隔开。 文本位置:设置分页文本显示位置,支持靠左、靠右和居中显示。 背景色:设置分页背景颜色。 字体:设置分页的字体、大小和颜色等。 选中字体颜色:设置选中分页时文本的颜色。 分页框宽度:设置分页框的宽度,单位为px。 下拉框背景颜色:设置下拉框的背景颜色。 下拉框字体颜色:设置下拉框的字体颜色。 下拉框选中态背景颜色:设置下拉框选中态的背景颜色。 下拉框选中态字体颜色:设置下拉框选中态的字体颜色。 下拉框鼠标悬浮时背景颜色:设置下拉框鼠标悬浮时的背景颜色。 下拉框鼠标悬浮时字体颜色:设置下拉框鼠标悬浮时的字体颜色。 树状表格 懒加载:开启懒加载,必须配置全局变量和交互事件。 展开层级:设置树状表格展开层级。 新增条件格式:单击“新增条件格式”,可增加条件格式。 例如,该组件预置的静态数据如图6所示。期望“series”为“白名单”的“amount”数值标红,参考图7,单击组件上方图标,单击“+ 新增条件格式”,设置条件和响应数据列的样式。 图6 预置数据 图7 新增条件格式
共100000条