华为云用户手册

  • 自定义购买专属云 MRS 集群 登录MRS管理控制台。 单击“购买集群”,进入“购买集群”页面。 在购买集群页面,选择“自定义购买”页签。 在“基础配置”区域,设置MRS集群基础信息。 计费模式:选择“包年/包月”模式。 区域:待创建资源所在的区域信息,不同区域的资源之间内网不互通,请选择靠近您的区域,可以降低网络延时、提高访问速度。 根据界面提示,配置MRS集群信息。 创建集群时,您需要对集群的版本信息、网络信息、节点规格信息及数量以及其他高级配置功能进行配置。 MRS集群版本配置 MRS集群网络配置 MRS集群节点配置 配置节点磁盘类型时,根据磁盘使用的存储资源是否独享,磁盘划分为“云硬盘”、“专属分布式存储”。 云硬盘:提供规格丰富、安全可靠、可弹性扩展的硬盘资源,满足不同性能要求的业务场景。 如果未申请独享的存储池,请选择“云硬盘”,创建的磁盘使用公共存储资源。 专属分布式存储:为用户提供独享的存储资源,通过数据冗余和缓存加速等多项技术,提供高可用性和持久性,以及稳定的低时延性能。 如果您在专属分布式存储服务页面申请了存储池,可以选择“专属分布式存储”,在已申请的存储池中创建磁盘。 MRS集群其他配置 单击“立即购买”。 当集群开启Kerberos认证时,需要确认是否需要开启Kerberos认证,若确认开启请单击“继续”,若无需开启Kerberos认证请单击“返回”关闭Kerberos认证后再创建集群,集群购买成功后不支持修改Kerberos认证模式。 如果您对价格有疑问,可以单击页面左下角“了解计费详情”,根据计费详情来了解产品价格。 单击“返回集群列表”,可以查看到集群创建的状态。 集群创建需要时间,所创集群的初始状态为“启动中”,创建成功后状态更新为“运行中”,请您耐心等待。 集群创建的状态过程请参见表1中的“状态”参数说明。 MRS系统界面支持同一时间并发创建10个集群,且最多支持管理100个集群。
  • 快速购买专属云MRS集群 进入购买MRS集群页面。 在购买集群页面,选择“快速购买”页签。 参考下列参数说明配置集群基本信息。 表1 MRS集群配置参数 参数 描述 示例 计费模式 集群的计费模式,MRS只支持“包年/包月”模式。 包年/包月 区域 待创建资源所在的区域信息,不同区域的资源之间内网不互通,请选择靠近您的区域,可以降低网络延时、提高访问速度。 - 集群名称 MRS集群名称,可以设置为系统默认名称,但为了区分和记忆,建议带上项目拼音缩写或者日期信息等。 集群创建成功后,您也可以在集群列表中手动修改集群名称。 mrs-test 集群类型 根据业务需要选择合适的MRS集群类型。 分析集群:用于离线数据分析场景,对海量数据进分析处理,形成结果数据,主要包含Hadoop、Spark、HBase、Hive、Flink、Oozie、Tez等数据分析类组件。 流式集群:用于流式数据处理任务,对实时数据源进行快速分析,主要包含Kafka、Flume等流式数据处理组件。 混合集群:既可以用来做离线数据分析,也可以用来做流处理任务的集群。 自定义:提供丰富的组件搭配,可自行选择对应版本MRS集群所支持的所有组件。 自定义 版本类型 MRS提供了LTS版与普通版两种类型的集群,不同版本提供的组件有所不同,可根据需要选择版本类型。 LTS版:集群提供更强的高可靠和容灾能力,融入了MRS服务自研组件,提供长期的支持和演进。 普通版:主要依托开源组件的能力,融入了MRS服务自研、成熟稳定的特性和功能,带来性能及稳定性的提升。 LTS版 集群版本 MRS集群的版本,不同版本所包含的开源组件版本及功能特性可能不同,推荐选择最新版本。 版本详细包含的组件详细可参考MRS组件版本一览表。 MRS 3.2.0-LTS.1 组件选择 基于系统预置的集群模板选择要购买的集群组件。 HBase查询集群 可用区 当前区域内,待创建资源所归属的可用区,可用区是在同一区域下,电力、网络隔离的物理区域。 说明: 当您为IES购买MRS时,请选择可用区为“边缘可用区”。 可用区1 虚拟私有云 MRS集群节点所归属的虚拟私有云网络,如果没有可用的虚拟私有云,请单击“查看虚拟私有云”进入网络控制台,创建一个新的虚拟私有云。 - 子网 虚拟私有云网络内的子网信息,如果没有可用的子网,请单击“查看子网”进入网络控制台,创建一个新的子网。 - 集群节点 MRS集群内节点的规格信息及数量配置。 MRS 3.x及之后版本集群Master节点规格不能小于64GB。 根据自身需要选择集群节点规格数量。 Kerberos认证 MRS集群中各组件是否启用Kerberos认证。Kerberos认证开启时,用户需要通过认证后才可以访问组件对应资源。 购买集群后,不支持修改。 开启Kerberos认证 用户名 MRS集群Manager及节点的默认登录用户,admin用户用于登录集群的Manager管理界面,root用户为集群内节点的操作系统管理用户,用于节点登录。 - 密码/确认密码 设置root用户和admin用户密码,该密码由用户自定义,请妥善保管。 - 企业项目 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理,您可以选择系统定义的企业项目default或者创建自己的企业项目。 default 通信安全授权 MRS管理控制台需要直接访问部署在用户VPC内的大数据组件时需要开通相应的安全组规则,详情说明请参考配置MRS集群安全通信授权。 勾选授权 单击“立即购买”。 当集群开启Kerberos认证时,需要确认是否需要开启Kerberos认证,若确认开启请单击“继续”,若无需开启Kerberos认证请单击“返回”关闭Kerberos认证后再创建集群,集群购买成功后不支持修改Kerberos认证模式。 如果您对价格有疑问,可以单击页面左下角“了解计费详情”,根据计费详情来了解产品价格。 单击“返回集群列表”,可以查看到集群创建的状态。 集群创建需要时间,所创集群的初始状态为“启动中”,创建成功后状态更新为“运行中”,请您耐心等待。 集群创建的状态过程请参见表1中的“状态”参数说明。 MRS系统界面支持同一时间并发创建10个集群,且最多支持管理100个集群。
  • 加固Tomcat 在 FusionInsight Manager软件安装及使用过程中,针对Tomcat基于开源做了如下功能增强: 升级Tomcat版本为官方稳定版本。 设置应用程序之下的目录权限为500,对部分目录支持写权限。 系统软件安装完成后自动清除Tomcat安装包。 应用程序目录下针对工程禁用自动部署功能,只部署了web、cas和client三个工程。 禁用部分未使用的HTTP方法,防止被他人利用攻击。 更改Tomcat服务器默认shutdown端口号和命令,避免被黑客捕获利用关闭服务器,降低对服务器和应用的威胁。 出于安全考虑,更改“maxHttpHeaderSize”的取值,给服务器管理员更大的可控性,以控制客户端不正常的请求行为。 安装Tomcat后,修改Tomcat版本描述文件。 为了避免暴露Tomcat自身的信息,更改Connector的Server属性值,使攻击者不易获知服务器的相关信息。 控制Tomcat自身配置文件、可执行文件、日志目录、临时目录等文件和目录的权限。 关闭会话facade回收重用功能,避免请求泄漏风险。 CookieProcessor使用LegacyCookieProcessor,避免cookie中的敏感数据泄漏。
  • 加固JDK 如果客户端程序使用了AES256加密算法,则需要对JDK进行安全加固,具体操作如下: 获取与JDK版本对应的JCE(Java Cryptography Extension)文件。JCE文件解压后包含“local_policy.jar”和“US_export_policy.jar”。复制此jar包到如下路径并替换文件: Linux:“JDK安装目录/jre/lib/security” Windows:“JDK安装目录\jre\lib\security” 请访问Open JDK开源社区获取JCE文件。 如果客户端程序需要支持SM4加密算法,则需要更新Jar包: 在“客户端安装目录/JDK/jdk/jre/lib/ext/”目录下获取“ SMS 4JA.jar”,并复制到如下目录: Linux:“JDK安装目录/jre/lib/ext/” Windows:“JDK安装目录\jre\lib\ext\”
  • 加固LDAP 在安装完集群后,针对LDAP做了如下功能增强: LDAP配置文件中管理员密码使用SHA加密,当升级openldap版本为2.4.39或更高时,主备LDAP节点服务自动采用SASL External机制进行数据同步,避免密码信息被非法获取。 集群中的LDAP服务默认支持SSLv3协议,可安全使用。当升级openldap版本为2.4.39或更高时,LDAP将自动使用TLS1.0以上的协议通讯,避免未知的安全风险。
  • 告警解释 系统以用户配置的告警周期(metrics.reporter.alarm.job.alarm.rocksdb.metrics.duration,默认180s)检查作业RocksDB监控数据,如果作业RocksDB的MemTable大小持续超过用户配置的阈值(metrics.reporter.alarm.job.alarm.rocksdb.get.micros.threshold,默认50000微秒),则发送告警。当作业RocksDB的MemTable大小小于或等于用户配置的阈值,则告警恢复。
  • 告警解释 系统以用户配置的告警周期(metrics.reporter.alarm.job.alarm.rocksdb.metrics.duration,默认180s)检查作业RocksDB监控数据,如果作业RocksDB的Pending Compaction请求数持续达到flush/compaction线程数的n倍,则发送告警。当作业RocksDB的Pending Compaction请求数小于或等于阈值,则告警恢复。 flush/compaction线程数:参数“state.backend.rocksdb.thread.num”的值,默认值2,开启SPINNING_DISK_OPTIMIZED_HIGH_MEM的默认值为4。 n倍:参数“metrics.reporter.alarm.job.alarm.rocksdb.background.jobs.multiplier”的值,默认值2。
  • 告警解释 系统以用户配置的告警周期(metrics.reporter.alarm.job.alarm.rocksdb.metrics.duration,默认180s)检查作业RocksDB监控数据,如果作业RocksDB的Pending Compaction预估总大小持续达到用户配置的阈值,则发送告警。当作业RocksDB的Pending Compaction预估总大小小于或等于阈值,则告警恢复。 Pending Compaction预估总大小阈值:取如下两个参数的最小值。 state.backend.rocksdb.soft-pending-compaction-bytes-limit,默认值64GB state.backend.rocksdb.hard-pending-compaction-bytes-limit,默认值256GB
  • 修订记录 发布日期 修订记录 2022-06-08 第二十二次正式发布。 新增通过Nginx配置URL转发 新增是否支持动态解析DDNS? 新增怎样查看并修改 域名 的DNS服务器地址? 修改解析不生效怎么办? 修改什么是反向解析? 2022-05-12 第二十一次正式发布。 修改 怎样测试域名解析是否生效?,修改验证解析是否生效的操作步骤。 华为云提供的内网 DNS地址 是多少?,补充“华南-广州-友好用户环境”的内网DNS地址。 2021-11-30 第二十次正式发布。 修改 云解析服务最高支持几级域名?,修改域名级别的描述。 2021-03-12 第十九次正式发布。 新增 域名未备案可以配置解析吗? 2020-06-17 第十八次正式发布。 新增 修改DNS服务器后多久生效? 2020-06-12 第十七次正式发布。 新增 域名转移是否会影响DNS解析? 2020-06-10 第十六次正式发布。 新增 网站无法访问排查思路 修改 为什么域名解析成功但网站仍然无法访问?,补充说明仅部署在中国大陆区域的网站需要备案。 添加记录集时,为什么会提示“与已有解析记录冲突”?,补充冲突示例及解决方案。 是否支持将解析的域名从账号A转移到账号B?,优化内容,补充与域名账号间转移的区别。 2020-05-15 第十五次正式发布。 对常见问题进行分类。 新增 DNS解析线路的优先级顺序是什么? 常用邮箱的解析记录示例 是否支持 动态域名解析 ? 2020-04-20 第十四次正式发布。 修改 如何添加二级域名解析?,补充截图。 2020-02-21 第十三次正式发布。 修改 华为云DNS对用户提供域名服务的DNS服务器地址是什么?,新增NS地址。 2020-01-21 第十二次正式发布。 修改 添加记录集时,为什么会提示“与已有解析记录冲突”?,补充NS和CNAME记录集的冲突限制说明。 2019-10-10 第十一次正式发布。 修改 怎样测试域名解析是否生效?,补充解析生效和不生效的示例。 为什么域名解析成功但网站仍然无法访问?,补充配置步骤。 添加记录集时,为什么会提示“与已有解析记录冲突”?,增加MX和CNAME记录集冲突的处理办法。 2019-09-05 第十次正式发布。 修改 华为云提供的内网DNS地址是多少?,增加“华东-上海一”、“欧洲-巴黎”以及“北美-亚特兰大”区域的内网DNS地址。 增加 是否支持将解析的域名从账号A转移到账号B? 是否支持将域名解析到其他云服务商或者线下机房? 是否支持显性/隐性URL转发功能? 为什么域名解析成功但网站仍然无法访问? 公网解析与内网解析有什么区别? 如何设置内网域名既支持内网解析,也支持公网解析? 内网解析是同区域还是跨区域? 如何添加二级域名解析? 是否同时支持IPv4和IPv6解析? 2019-08-23 第九次正式发布。 修改 华为云提供的内网DNS地址是多少?,更新“亚太-新加坡”区域的内网DNS地址。 2019-04-30 第八次正式发布。 修改 常见问题内容优化更新,涉及页面: 怎样切换内网DNS? 什么是TTL值? 内网DNS并发有什么限制? 2019-03-05 第七次正式发布。 修改 更新界面截图。 华为云提供的内网DNS地址是多少?,增加不同区域内网DNS地址。 2018-11-15 第六次正式发布。 更新界面截图。 2018-09-15 第五次正式发布。 增加 内网DNS并发有什么限制? 修改 更新界面截图。 2018-08-15 第四次正式发布。 修改 更新界面截图。 修改添加记录集的参数“类型”。 华为云提供的内网DNS地址是多少?,增加中国香港区域的内网DNS地址。 2018-06-30 第三次正式发布。 修改 更新界面截图。 修改标签字符集范围。 2018-05-15 第二次正式发布。 修改 怎样通过弹性云服务器的主机名访问弹性云服务器?,修改添加记录集的参数“类型”。 2018-04-10 第一次正式发布。
  • 多表left join场景下关联键发生改变使用雪花模型代替星型模型 多表left join关联键发生更新时会发生数据乱序,建议右表先关联成一个view,然后再与左表关联。 关联键group_id改变导致“-D”和“+I”乱序,下游根据user_id哈希时虽然进入同一并行度,但是“+I”消息先到,“-D”消息后到,最终写入宽表时记录就会被删除。 优化前SQL: select... from t1 left join t2 on t2.user_id = t1.user_id left join t10 on t10.user_id = t1.user_id left join t11 on t11.group_id = t10.group_id left join t12 on t12.user_id = t1.user_id 优化后SQL: create view tmp_view as( select .. from t10 left join t11 on t11.group_id = t10.group_id ); select... from t1 left join t2 on t2.user_id = t1.user_id left join tmp_view on tmp_view.user_id = t1.user_id left join t12 on t12.user_id = t1.user_id
  • 多个Flink作业或者insert into语句写同一张Gauss for MySQL时建议过滤回撤数据 当有多个Flink作业写同一张MySQL表时,其中一个Flink作业发送回撤数据(-D、-U)到目标表删除整行数据,再插入本次更新的数据,导致其他作业写入的字段全部丢失。 优化前SQL: create table source-A( id, user_id )with( 'connector' = 'kafka' ); create table source-B( id, org_id )with( 'connector' = 'kafka' ); create table sink-A( id, user_id )with( 'connector' = 'jdbc' 'url' = 'jdbc:mysql://****', 'table-name' = 'sink-table' ); create table sink-B( id, org_id )with( 'connector' = 'jdbc' 'url' = 'jdbc:mysql://****', 'table-name' = 'sink-table' ); insert into sink-A select id,user_id from source-A; insert into sink-B select id,org_id from source-B; 优化后SQL: create table source-A( id, user_id )with( 'connector' = 'kafka' ); create table source-B( id, org_id )with( 'connector' = 'kafka' ); create table sink-A( id, user_id )with( 'connector' = 'jdbc' 'url' = 'jdbc:mysql://****', 'table-name' = 'sink-table', 'filter.record.enabled' = 'true' ); create table sink-B( id, org_id )with( 'connector' = 'jdbc' 'url' = 'jdbc:mysql://****', 'table-name' = 'sink-table', 'filter.record.enabled' = 'true' ); insert into sink-A select id,user_id from source-A; insert into sink-B select id,org_id from source-B;
  • 多表left join时建议lookup join在所有双流join后 多表left join时建议lookup join在所有双流join后,否则下游有left join LATERAL TABLE时会发生乱序。 图3 多表left join 虽然左表已经定义主键,但是经过lookup join后下游left join时无法推断左流主键,导致左流所有历史数据都存储在状态,右流数据到达后会从最新的状态开始依次回撤左流状态中的每一条数据,经过LATERAL TABLE每一条source数据又与lateral table自关联,数据乱序。 查看打印结果可以看到连续多条“-D”消息,并且最后一条数据错误,因此建议lookup join放在双流join后执行。 图4 连续多条“-D”消息 优化前SQL: select... from t1 left join t2 FOR SYSTEM_TIME AS OF t1.proctime AS t21 on t21.id = t1.id left join t3 on t3.id = t1.id left join LATERAL TABLE(udtf()) AS t4(res1,res2.res3,res4) on true 优化后SQL: select... from t1 left join t3 on t3.id = t1.id left join t2 FOR SYSTEM_TIME AS OF t1.proctime AS t21 on t21.id = t1.id left join LATERAL TABLE(udtf()) AS t4(res1,res2.res3,res4) on true
  • 使用char数据类型时指定精度或者改用string类型 使用“cast(id as char)”数据类型转换时,结果只截取第一位,导致数据错误。如果转换字段正好是主键字段则会丢失大量数据。 配置“table.exec.legacy-cast-behaviour=ENABLED”也可以解决转换发生错误的问题,但是不建议使用。 在Flink 1.15之前,可以通过将“table.exec.legacy-cast-behaviour”设置为“enabled”来启用旧版本的类型转换行为。但在Flink 1.15及之后版本中,默认情况下该标志被禁用,将导致以下行为: 转换为CHAR/VARCHAR/BINARY/VARBINARY时禁用修剪/填充操作。 CAST操作永远不会失败,而是返回NULL,类似于TRY_CAST,但不会推断正确的类型。 对于某些转换为CHAR/VARCHAR/STRING的格式化操作,结果可能略有不同。 我们不建议使用此标志,并强烈建议新项目保持禁用该标志并使用新的类型转换行为。该标志将在未来的Flink版本中被移除。 优化前SQL: select cast(id as char) as id, ... from t1 优化后SQL: select cast(id as string) as id, ... from t1
  • 拆分distinct聚合优化聚合中数据倾斜 通过两阶段聚合能消除常规的数据倾斜,但是处理distinct聚合时性能并不好。因为即使启动了两阶段聚合,distinct key也不能combine消除重复值,累加器中仍然包含所有的原始记录。 可以将不同的聚合(例如 COUNT(DISTINCT col))分为两个级别: 第一次聚合由group key和额外的bucket key进行shuffle。bucket key是使用HASH_CODE(distinct_key) % BUCKET_NUM计算的,BUCKET_NUM默认为1024,可以通过table.optimizer.distinct-agg.split.bucket-num选项进行配置。 第二次聚合是由原始group key进行shuffle,并使用SUM聚合来自不同buckets的COUNT DISTINCT值。由于相同的distinct key将仅在同一bucket中计算,因此转换是等效的。bucket key充当附加group key的角色,以分担group key中热点的负担。bucket key使Job具有可伸缩性来解决不同聚合中的数据倾斜/热点。 【示例】 资源文件配置: table.optimizer.distinct-agg.split.enabled: true table.optimizer.distinct-agg.split.bucket-num: 1024 查询今天有多少唯一用户登录: SELECT day, COUNT(DISTINCT user_id) FROM T GROUP BY day 自动改写查询: SELECT day, SUM(cnt) FROM( SELECT day, COUNT(DISTINCT user_id) as cnt FROM T GROUP BY day, MOD(HASH_CODE(user_id), 1024) ) GROUP BY day
  • 多表join场景且join key是联合主键时select字段要显示添加联合主键所有字段 如果不显示select联合主键所有字段,join算子会丢弃部分主键,导致join spec为NoUniqueKey。 优化前SQL: create table table1( uuid varchar(20), name varchar(10), age int, ts timestamp, primary key (uuid) not enforced ) with ( 'connector' = 'datagen', 'rows-per-second' = '1' ); create table table2( uuid varchar(20), name varchar(10), age int, ts timestamp, primary key (uuid, name) not enforced ) with ( 'connector' = 'datagen', 'rows-per-second' = '1' ); create table print( uuid varchar(20), name varchar(10), age int, ts timestamp ) with ('connector' = 'print'); insert into print select t1.uuid, t1.name, t2.age, t2.ts from table1 t1 join table2 t2 on t1.uuid = t2.uuid; 图1 join spec为NoUniqueKey 优化后SQL: create table table1( uuid varchar(20), name varchar(10), age int, ts timestamp, primary key (uuid) not enforced ) with ( 'connector' = 'datagen', 'rows-per-second' = '1' ); create table table2( uuid varchar(20), name varchar(10), age int, ts timestamp, primary key (uuid, name) not enforced ) with ( 'connector' = 'datagen', 'rows-per-second' = '1' ); create table print( uuid varchar(20), name varchar(10), name1 varchar(10), age int, ts timestamp ) with ('connector' = 'print'); insert into print select t1.uuid, t1.name, t2.name as name1, t2.age, t2.ts from table1 t1 join table2 t2 on t1.uuid = t2.uuid; 图2 优化后
  • 慎用正则表达式函数REGEXP 正则表达式是非常耗时的操作,对比加减乘除通常有百倍的性能开销,而且正则表达式在某些极端情况下可能会进入无限循环,导致作业阻塞。推荐首先使用LIKE。正则函数包括: REGEXP REGEXP_EXTRACT REGEXP_REPLACE 【示例】 使用正则表达式: SELECT * FROM table WHERE username NOT REGEXP "test|ceshi|tester' 使用like模糊查询: SELECT * FROM table WHERE username NOT LIKE '%test%' AND username NOT LIKE '%ceshi%' AND username NOT LIKE '%tester%'
  • UDF嵌套不可过长 多个UDF嵌套时表达式长度很长,Flink优化生成的代码超过64KB导致编译错误。建议UDF嵌套不超过6个。 【示例】UDF嵌套: SELECT SUM(get_order_total(order_id)) FROM orders WHERE customer_id = ( SELECT customer_id FROM customers WHERE customer_name = get_customer_name('John Doe') )
  • 聚合函数中case when语法改写成filter语法 在聚合函数中,FILTER是更符合SQL标准用于过滤的语法,并且能获得更多的性能提升。FILTER是用于聚合函数的修饰符,用于限制聚合中使用的值。 【示例】在某些场景下需要从不同维度来统计UV,如Android中的UV,iPhone中的UV,Web中的UV和总UV,这时可能会使用如下CASE WHEN语法。 修改前: SELECT day, COUNT(DISTINCT user_id) AS total_uv, COUNT(DISTINCT CASE WHEN flag IN (android', "iphone'") THEN user_id ELSE NULL END) AS app_uv, COUNT(DISTINCT CASE WHEN flag IN(wap', 'other') THEN user_id ELSE NULL END) AS web_uv FROM T GROUP BY day 修改后: SELECT day, COUNT(DISTINCT user_id) AS total_uv, COUNT(DISTINCT user_id) FILTER (WHERE flag IN ('android', 'iphone')) AS app_uv, COUNT(DISTINCT user_id) FILTER(WHERE flag IN ('wap', 'other'))AS web_uv FROM T GROUP BY day Flink SQL优化器可以识别相同的distinct key上的不同过滤器参数。例如示例中三个COUNT DISTINCT都在user_id列上。Flink可以只使用一个共享状态实例,而不是三个状态实例,以减少状态访问和状态大小,在某些工作负载下可以获得显著的性能提升。
  • 四方免费账号登录 在智慧屏PRO首页选择 WeLink 会议,开启会议欢迎页面,随后的隐私页面上单击“同意”,表示认同WeLink会议的协议及申明,单击蓝色字体可查看全文协议描述。 一般情况,用户已在智慧屏登录了华为账号,能直接进入会议主界面。 如果用户在智慧屏没有登录华为账号,则会弹出扫码登录华为账号的界面。通过手机扫码或是账号登录界面,即可登录华为账号。 若用户的华为账号没有绑定手机号,则会跳出确认弹窗。 单击“确认”后输入手机号码进行绑定,绑定成功后进入会议主界面。 父主题: 登录会议
  • 投屏工具栏 投屏到SmartRooms时,可使用投屏工具栏进行截屏批注、停止投屏等操作,更加快捷方便。 打开华为云会议客户端,单击PC端主界面右上角或移动端主界面右上角,输入投屏码。 投屏码在SmartRooms首页、进入“投屏”应用、会中右上角处或单击“共享”时可查看。 请确保发起投屏的设备和SmartRooms保持在同一网络。 PC端投屏后,在SmartRooms的投屏界面单击底部小箭头,展开投屏工具栏。 单击“截屏批注”可截取当前屏幕到白板中进行批注。 单击“控制屏幕”可在SmartRooms控制PC端屏幕。 单击“停止投屏”可退出投屏。
  • 会中共享 进入会中界面,单击会控栏中的“共享”可根据需要选择共享内容并发起共享。 共享投屏:根据会中界面的提示步骤使用华为云会议客户端投屏到SmartRooms后,可将投屏内容共享给其他与会者。 投屏步骤可参考: 打开华为云会议客户端,确保发起投屏的设备与SmartRooms保持在同一个网络。 单击PC端主界面右上角或移动端主界面右上角,输入投屏码。投屏码在SmartRooms首页、进入“投屏”应用、会中右上角处或单击“共享”时均可查看。 共享桌面:单击“桌面共享”,可在会议中共享本地程序或当前桌面内容。
  • 邀请入会 扫码邀请:单击“邀请”按钮,使用微信或者浏览器扫码时,您可在浏览器上选择拉起华为云会议移动端入会或者通过浏览器分享入会链接。 使用华为云会议移动端扫码时,在弹框页面上显示会议详情,以及“加入会议”或“分享会议”按钮,您可根据需要进行选择。 通讯录邀请:单击“邀请”按钮,选择“通讯录邀请”,可从“组织架构”中添加与会者。 复制会议信息:单击会议ID显示会议详情,一键复制会议信息邀请他人入会。 与会者列表进行邀请:单击与会者列表“邀请”按钮,选择邀请方式—扫码邀请/通讯录邀请。
  • 安装 预置华为云会议SmartRooms 当您购买了华为云会议SmartRooms智能协同大屏,发货之前我们将会预装好SmartRooms软件,您无需重新下载安装,打开激活即可使用。 目前预置华为云会议SmartRooms的设备有MAXHUB华为云会议SmartRooms专款、海信华为云会议SmartRooms专款。 下载安装华为云会议SmartRooms 若您的硬件设备为Windows系统,下载安装华为云会议SmartRooms Windows客户端,即可激活使用。 SmartRooms官方认证的硬件设备范围请参考华为云会议认证硬件设备。 在硬件设备上使用浏览器进入华为云会议SmartRooms下载页面,单击“立即下载”,下载“SmartRooms_Win”安装包。 双击“SmartRooms_Win”安装包,根据提示完成安装后,打开SmartRooms客户端激活即可使用。 非华为云会议认证硬件设备推荐配置如下: CPU:Intel® Core™ i5,6核或以上 内存:双通道,8G或以上 硬盘:128G或以上 操作系统:Windows10,1809版本或以上
  • 请求示例 批量删除标签,标签键值对为key1和value1,key2和value3。 { "action": "delete", "tags": [ { "key": "key1", "value": "value1" }, { "key": "key2", "value": "value3" } ] }
  • 请求示例 批量添加标签,标签键值对为key1和value1,key2和value3。 { "action": "create", "tags": [ { "key": "key1", "value": "value1" }, { "key": "key2", "value": "value3" } ] }
  • 配置运行环境 obsfs的运行环境依赖openssl-devel、fuse、fuse-devel等软件包,运行obsfs之前,您需要通过命令配置其依赖环境。 obsfs支持使用的libfuse版本为2.9.7,2.9.8或2.9.9。如果当前您的libfuse是其他版本,请参考libfuse安装指导进行安装。 您可以通过操作系统自有的查看命令查看libfuse版本,也可以通过以下命令查找libfuse.so以获得当前已安装版本。 find / -name libfuse.so* CentOS 7 yum install -y openssl-devel fuse fuse-devel Ubuntu 16 apt-get install -y libfuse-dev libcurl4-openssl-dev
  • 约束与限制 本地挂载目录可以不为空,但是挂载后此目录下原有的内容将不可用,取消挂载后即可恢复。建议使用空目录作为挂载目录。 obsfs只支持挂载OBS并行文件系统,不支持挂载对象存储桶。 obsfs挂载OBS并行文件系统后,不支持作为ftp目录使用。 挂载至本地系统的并行文件系统不能提供与本地文件系统完全相同的性能或功能,使用时需要注意以下细节: 挂载目录中的文件或文件夹不支持硬链接命令。 创建的目录深度不超过45层。 因使用FUSE框架存在内核态与用户态切换,不适合高并发场景。 ls、stat等linux命令需要远程访问OBS服务器,所以性能较差。 一个并行文件系统支持挂载到多台云服务器,但数据一致性需由您自行维护,避免出现多台云服务器同时对一个文件并发写入的情况。 桶级的桶策略和 IAM 策略对obsfs挂载方式生效,目录级的桶策略和IAM策略对obsfs挂载方式访问不生效。
  • ICAgent安装说明 如果需要采集主机指标、容器指标、节点日志、容器日志、标准输出日志等,则需要在采集日志的机器上安装ICAgent。 请参考安装ICAgent(区域内主机)和安装ICAgent(区域外主机)。 区域内主机就是主机所在区域和用户登录 云日志 服务控制台所在的区域相同,例如华为-北京四。 区域外主机就是主机所在区域和用户登录云日志服务控制台所在区域不同,例如华为云其他区域、第三方都属于区域外主机。
  • ICAgent采集原理 云日志服务安装ICAgent后,会对所关联的日志文件进行实时监听。ICAgent侧收到LTS接入页面下发的采集配置后,会定时解析采集配置信息,获取到采集路径后在节点上进行路径匹配,将节点上对应的文件加入监控任务中,通过轮询和inotify感知目标日志文件的变化。 ICAgent侧发现文件变更后,读取文件的内容,分块发送到处理模块,进行单行、多行、结构化、拆分、添加标签等日志处理动作,再将处理好的任务提交到发送任务池后,上报到LTS。
  • 功能优势 基于日志文件,无侵入式采集日志。您无需修改应用程序代码,且采集日志不会影响您的应用程序运行。 稳定处理日志采集过程中的各种异常。当遇到网络异常、服务端异常等问题时会采用主动重试、本地缓存数据等措施保障数据安全。 基于日志服务的集中管理能力。安装ICAgent后,只需要在日志服务上配置主机组、ICAgent采集配置等信息即可。 完善的自我保护机制。为保证运行在服务器上的ICAgent,不会明显影响您服务器上其他服务的性能,ICAgent在CPU、内存及网络使用方面都做了严格的限制和保护机制。
共100000条