检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
SavePoint Savepoint是指允许用户在持久化存储中保存某个checkpoint,以便用户可以暂停自己的任务进行升级。升级完后将任务状态设置为savepoint存储的状态开始恢复运行,保证数据处理的延续性。 样例工程介绍 MRS样例工程获取地址为https://github.c
JDK默认只支持TLS V1.0,若使用IBM JDK,请配置启动参数“com.ibm.jsse2.overrideDefaultTLS”为“true”,设置后可以同时支持TLS V1.0/V1.1/V1.2,详情可参考https://www.ibm.com/support/knowledgecenter/zh/SSYKE2_8
Flink支持的所有REST API的URL中的Path信息如表1所示。 表1 Path介绍 Path 说明 /config 有关监控API和服务器设置的一些信息。 /logout 注销的重要信息。 /overview Flink集群状态的简单概要。 /jobs Job的ID,按运行,完成,失败和取消等状态进行分组。
MRS Manager升级ARM JDK MRS Manager解决Core节点日志撑满系统盘问题 MRS大数据组件 解决Ranger日志不能设置个数,有撑满磁盘风险的问题 MRS 1.9.0.2 修复问题列表: MRS Manager 解决集群中部分Core节点互信丢失问题 解决补丁安装后添加实例失败问题
在“服务”框中勾选待操作集群的如下节点信息。 Zookeeper HDFS DBService Yarn Mapreduce Loader 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 在FusionInsight Manager界面,选择“集群
xml文件,替换到cluster1中的Spark2x客户端下“conf”目录hbase-site.xml文件。 访问Kafka,仅需将应用访问的Kafka Broker地址设置为cluster2中的Kafka Broker地址即可。 同时访问两个集群的HDFS: 无法同时获取两个相同nameservice的tok
Flink支持的所有REST API的URL中的Path信息如表1所示。 表1 Path介绍 Path 说明 /config 有关监控API和服务器设置的一些信息。 /logout 注销的重要信息。 /overview Flink集群状态的简单概要。 /jobs Job的ID,按运行,完成,失败和取消等状态进行分组。
file”时,支持“上传文件”和“下载文件”功能。上传配置文件后旧文件将被覆盖,再下载文件只能获取新文件。如果未保存配置并重启服务,那么新文件设置未生效,请及时保存配置。 修改服务配置参数后如需重启服务使配置生效,可在服务页面单击右上角“更多 > 重启服务”。 配置参数前包含图标时,
在“恢复配置”,勾选“元数据和其他数据”下的“ClickHouse”。 在“ClickHouse”的“路径类型”,选择一个恢复目录的类型。 选择不同的备份目录时,对应设置如下: “LocalDir”:表示从主管理节点的本地磁盘上恢复数据。 选择此参数值,还需要配置: “源端路径”:表示要恢复的备份文件。例如,“备份任务名_数据源_任务执行时间
运维管理员可以执行Yarn集群的管理操作,例如访问ResourceManager WebUI,管理NodeManager节点,刷新队列,设置NodeLabel等,但不能提交任务。 hetuadmin HetuEngine管理员用户组,属于该组的用户拥有在HSConsole页面操作的权限。
> 下载”。 在“服务”中勾选待操作集群的如下节点信息。 ZooKeeper HDFS Yarn DBService Hive 单击右上角的设置日志收集的“开始时间”和“结束时间”,分别为告警产生时间的前后10分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除
Flink支持的所有REST API的URL中的Path信息如表1所示。 表1 Path介绍 Path 说明 /config 有关监控API和服务器设置的一些信息。 /logout 注销的重要信息。 /overview Flink集群状态的简单概要。 /jobs Job的ID,按运行,完成,失败和取消等状态进行分组。
在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 在“服务”中勾选“OMS”,单击“确定”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除
xml文件,替换到cluster1中的Spark2x客户端下“conf”目录hbase-site.xml文件。 访问Kafka,仅需将应用访问的Kafka Broker地址设置为cluster2中的Kafka Broker地址即可。 同时访问两个集群的HDFS: 无法同时获取两个相同nameservice的tok
hive."default".t1; SELECT查询 SELECT id FROM hive."default".t1; 在Session级别设置相应的catalog和schema,而不是在查询中传递完全限定的名称 以指定catalogname为“hive”,schemaname为“default”为例:
在“恢复配置”,勾选“元数据和其他数据”下的“Flink”。 在“Flink”的“路径类型”,选择一个恢复目录的类型。 选择不同的备份目录时,对应设置如下: “LocalDir”:表示从主管理节点的本地磁盘上恢复数据。 选择此参数值,还需要配置“源端路径”,表示要恢复的备份文件。例如,“备份任务名_数据源_任务执行时间
enable.https' = 'true' 'doris.ignore.https.ca' = 'true' 创建Doris Sink表时还可设置表1中的相关参数。 执行以下命令将Kafka数据写入Doris: insert into dorisSink select * from KafkaSource;
FusionInsight_Cluster_1_Services_ClientConfig.tar 检查客户端网络连接。 在待安装客户端节点的“/etc/hosts”文件中设置集群所有节点主机名和IP地址映射,可执行以下步骤在hosts文件中导入集群的域名映射关系。 切换至root用户或者其他具有修改hosts文件权限的用户。
fault用户登录。 --password 密码。 默认值:空字符串。该参数和--user参数配套使用,可以在Manager上创建用户名时设置该密码。 --query 使用非交互模式查询。 --database 默认当前操作的数据库。默认值:服务端默认的配置(默认是default)。
打开MultiComponentLocalRunner.java,确认代码中System.setProperty("HADOOP_USER_NAME", "root");设置了用户为root,请确保场景说明中上传的数据的用户为root,或者在代码中将root修改为上传数据的用户名。 在IntelliJ IDEA