检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
为一致)。 “/sdir2.txt”文件的数据块,两个副本存放在dn-2和dn-6节点上,虽然还缺失一个备份节点,但由于使用了fallback=NONE参数,所以只存放两个备份。 “/dir6”目录下文件的数据块在具备label-4的节点中选择2个节点(dn-3 -- dn-6)
装,无需人工干预,不停业务,保障用户集群长期稳定。 高可靠 MRS服务经过大规模的可靠性、长稳验证,满足企业级高可靠要求,同时支持数据跨AZ/跨Region自动备份的数据容灾能力,自动反亲和技术,虚拟机分布在不同物理机上。 首次使用MRS 如果您是首次使用MRS的用户,建议您学习并了解如下信息:
mapreduce.task.container.log.backups MR应用程序task日志保留的最大个数。 设置为“0”表示不滚动输出。 使用CRLA(ContainerRollingLogAppender)时任务日志备份文件的数量。默认使用CLA(ContainerLogA
为一致)。 “/sdir2.txt”文件的数据块,两个副本存放在dn-2和dn-6节点上,虽然还缺失一个备份节点,但由于使用了fallback=NONE参数,所以只存放两个备份。 “/dir6”目录下文件的数据块在具备label-4的节点中选择2个节点(dn-3 -- dn-6)
配置Spark SQL语法支持关联子查询不带聚合函数 本章节仅适用于MRS 3.3.1-LTS及之后版本。 配置场景 开源版本Spark SQL强制要求子查询关联中必须使用聚合函数,如果未使用聚合函数将报错“Error in query: Correlated scalar subqueries
开发环境和运行环境:Linux系统。 安装Python 用于开发Hive应用程序的工具,版本要求不低于2.6.6,最高不超过2.7.13。 安装setuptools Python开发环境的基本配置,版本要求5.0以上。 准备开发用户 参考准备MRS应用开发用户进行操作,准备用于应用开发的集群用户并授予相应权限。
ce)、Ranger、DBService、KrbServer、LdapServer和meta服务,其他已安装服务可删除。 删除服务前,请先备份该服务的数据,避免数据丢失。 父主题: 管理MRS集群组件
y.jar”。拷贝jar包到如下路径。 Linux:JDK安装目录/jre/lib/security Windows:JDK安装目录\jre\lib\security 将“客户端安装目录/JDK/jdk/jre/lib/ext/”目录下“SMS4JA.jar”拷贝到如下路径。 L
”,显示“Open File or Project”对话框。 在弹出窗口选择文件夹“doris-jdbc-example”,单击“OK”。Windows下要求该文件夹的完整路径不包含空格。 以在Windows环境下开发JDBC方式连接Doris服务的应用程序为例。 需在本地环境变量中设置环境变量
系统会根据配置的日志大小自动清理日志,如果需要保存更多的信息请设置一个较大的数值。为确保日志文件的完整性,建议根据实际业务量大小,在日志文件基于规则清理前,手动将日志文件备份存储至其他文件夹中。 个别服务不支持通过界面修改日志级别。 单击“保存”,在“保存配置”单击“确定”。 验证日志级别设置已生效,请下载日志并查看。
解决knox重启失败问题 解决节点故障提交作业失败问题 支持全链路监控 解决ResourceManager主备倒换导致作业状态不更新问题 解决部分场景下备份恢复失败问题 解决HMaster频繁出现进程故障告警问题 大数据组件 解决jobhistory内存泄漏问题 解决Hive truncate表超时失败问题
t/kerberos/var/krb5kdc/krb5.conf,copy覆盖集群内所有节点的/etc/krb5.conf,注意替换前需要备份。 父主题: Spark Core
不支持 作业管理 支持 不支持 租户管理 支持 支持 标签管理 支持 不支持 权限设置(添加删除用户、用户组、角色) 不支持 支持 集群组件数据备份恢复 不支持 支持 Manager操作审计日志 不支持 支持 资源监控 支持 支持 MRS集群管理对象说明 MRS集群包含了各类不同的基本对象,不同对象的描述介绍如表2所示。
”,显示“Open File or Project”对话框。 在弹出窗口选择文件夹“doris-jdbc-example”,单击“OK”。Windows下要求该文件夹的完整路径不包含空格。 以在Windows环境下开发JDBC方式连接Doris服务的应用程序为例。 需在本地环境变量中设置环境变量
索引DDL操作支持修改索引状态、删除索引、创建索引;不支持修改索引定义,如需修改,请先删除后重新创建。 索引创建约束 索引名需要符合正则要求,不支持其他字符,正则要求支持的字符为:[a-zA-Z_0-9-.]:。 数据表必须存在,要创建的索引不能已存在。 索引表不支持多版本 不支持在多版本(
Flink Kafka样例程序开发思路 场景说明 假定某个Flink业务每秒就会收到1个消息记录。 基于某些业务要求,开发的Flink应用程序实现功能:实时输出带有前缀的消息内容。 数据规划 Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafk
Flink Kafka样例程序开发思路 场景说明 假定某个Flink业务每秒就会收到1个消息记录。 基于某些业务要求,开发的Flink应用程序实现功能:实时输出带有前缀的消息内容。 数据规划 Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafk
Flink Kafka样例程序开发思路 场景说明 假定某个Flink业务每秒就会收到1个消息记录。 基于某些业务要求,开发的Flink应用程序实现功能:实时输出带有前缀的消息内容。 数据规划 Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafk
Flink Kafka样例程序开发思路 场景说明 假定某个Flink业务每秒就会收到1个消息记录。 基于某些业务要求,开发的Flink应用程序实现功能:实时输出带有前缀的消息内容。 数据规划 Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafk
Spark SQL建表底层调用的是Hive的接口,其建表时会在“/user/hive/warehouse”目录下新建一个以表名命名的目录,因此要求用户具备“/user/hive/warehouse”目录的读写、执行权限或具有Hive的group权限。 “/user/hive/warehouse”目录可通过hive