检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
时,HMaster在启动期间等待所有region server的WAL分割,以避免数据不一致问题。一旦WAL分割完成,HMaster将进行用户region的分配。所以当在集群异常的场景下,WAL分割可能需要很长时间,这取决于多个因素,例如太多的WALs,较慢的I/O,region
0-LTS版本集群,当MRS 3.3.0-LTS发布商用后,之前较早的版本(如MRS 3.1.2-LTS)默认将不在控制台上提供创建入口。对存量用户使用的MRS 3.1.2-LTS版本集群不影响。 集群版本升级 MRS LTS版本集群支持大版本升级的演进路线,默认情况下只支持跨一个版本的升级,如MRS
设置系统的环境变量说明 Hadoop在安全认证的时候,需要获取客户端所在主机的域名(Default Realm,从环境变量USERDNSDOMAIN中获取)。如果该主机没有域名,则运行样例程序会有如下报错: 此时需要用户设置系统的环境变量USERDNSDOMAIN以规避该问题,具体如下:
该配置仅用于MySQL专用连接器,当数据列内容中包含默认分隔符时,需要设置自定义分隔符,否则会出现数据错乱。 string 否 , 换行分隔符 用户根据数据实际情况,填写字符串作为换行符。支持任何字符串。默认使用操作系统的换行符。 说明: 该配置仅用于MySQL专用连接器,当数据列内容
MRS集群节点如何进行操作系统漏洞升级 用户问题 EulerOS系统底层存在漏洞时,MRS集群如何进行操作系统漏洞升级? 问题现象 在使用安全软件测试集群时,发现有EulerOS系统底层存在漏洞。 原因分析 MRS集群内服务部署在EulerOS系统中,因此需要进行漏洞升级。 处理步骤
支持结构化数据模型 通过结合所有以上属性,Kudu的目标是支持在当前Hadoop存储技术上难以实现或无法实现的应用。 Kudu的应用场景有: 需要最终用户立即使用新到达数据的报告型应用 同时支持大量历史数据查询和细粒度查询的时序应用 使用预测模型并基于所有历史数据定期刷新预测模型来做出实时决策的应用
该配置仅用于MySQL专用连接器,当数据列内容中包含默认分隔符时,需要设置自定义分隔符,否则会出现数据错乱。 string 否 , 换行分隔符 用户根据数据实际情况,填写字符串作为换行符。支持任何字符串。默认使用操作系统的换行符。 说明: 该配置仅用于MySQL专用连接器,当数据列内容
重新下载安装Spark服务客户端,或者更新已有客户端配置,具体参考使用MRS客户端。 验证配置结果 登录FusionInsight Manager,选择“集群 > 服务 > MemArtsCC > 图表 > 容量”。 查看图表“集群shard数量” 并记录shard数。 登录Spark客户端节点,
因,有可能导致region长时间处于transition下。在region transition下,由于一些region不能对外提供服务,客户端操作可能无法正常执行。 启用Region Transition恢复功能 在HMaster上设置chore服务,用于识别和恢复长期处于transition的region。
设置系统的环境变量说明 Hadoop在安全认证的时候,需要获取客户端所在主机的域名(Default Realm,从环境变量USERDNSDOMAIN中获取)。如果该主机没有域名,则运行样例程序会有如下报错: 此时需要用户设置系统的环境变量USERDNSDOMAIN以规避该问题,具体如下:
约束限制: 不涉及 取值范围: 不涉及 默认取值: default archive_path 否 String 参数解释: SQL执行结果的转储文件夹。只有select语句才会转储查询的结果。当前仅支持转储到OBS中。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 响应参数
/opt/FI-Client/Spark2x/spark/examples/jars/spark-examples_2.12-3.1.1-xxx.jar 用户调试时需要把--class和jar包换成自己的程序,-Xdebug -Xrunjdwp:transport=dt_socket,server=y
/opt/FI-Client/Spark2x/spark/examples/jars/spark-examples_2.12-3.1.1-xxx.jar 用户调试时需要把--class和jar包换成自己的程序,-Xdebug -Xrunjdwp:transport=dt_socket,server=y
/opt/FI-Client/Spark2x/spark/examples/jars/spark-examples_2.12-3.1.1-xxx.jar 用户调试时需要把--class和jar包换成自己的程序,-Xdebug -Xrunjdwp:transport=dt_socket,server=y
置。 调整元数据缓存配置可参考调整HetuEngine元数据缓存。 调整动态过滤配置可参考调整HetuEngine动态过滤。 调优案例 某用户使用Hudi MOR表存储其设备的订单出借信息,可通过订单号查询订单详细信息,每天订单量相对稳定,部分节假日可能存在小高峰,该场景存在以下特点:
概览”,单击“HSConsole WebUI”的HSConsole链接进入计算实例界面。 然后选择“数据源 > hive > 编辑 > 自定义配置 > 增加”来新增一条用户自定义配置项,名称为“hive.non-managed-table-writes-enabled”,值为“true”。 独立部署Hive情况
抢占来保证在queue policy承诺的队列minimum资源。队列资源信息如下(其中,minimum为最小资源,share为权重): 用户A,提交作业1到queue1,AM使用<vcore 1, memory 2GB>,8个任务,每个任务使用<vcore 2, memory 4
SparkPi,opt/client/Spark/spark/examples/jars/spark-examples-<version>.jar:用户调试时需要换成自己的主类和jar包路径。 -Xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y
对于不同类型的应用,希望以不同方式处理AM重启的事件。MapReduce类应用的目标是不丢失任务,但允许丢失当前运行的Container。但是对于长周期的YARN服务而言,用户可能并不希望由于AM的故障而导致整个服务停止运行。 YARN支持在新的ApplicationAttempt启动时,保留之前Containe
可能导致Region长时间处于Transition下。当Region处于Transition下,由于一些Region不能对外提供服务,导致客户端操作可能无法正常执行。 启用Region Transition恢复功能 在HMaster上设置chore服务,用于识别和恢复长期处于Transition的Region。