检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
“overwrite”是可选参数,如果未配置,则默认值为“false”。 DELETE 删除文件。 NA 配置描述 必须定期调用迁移工具,并需要在客户端的“hdfs-site.xml”文件中进行以下配置。 表3 参数描述 参数 描述 默认值 dfs.auto-data-movement.policy
serviceDiscoveryMode=hsfabric 说明: XXX:驱动名,请以实际样例代码中的内容为准。 catalog、schema分别是JDBC客户端要连接的catalog和schema名称。 HSFabric_IP:HSFabric_Port是HSFabric的URL,多个URL以逗号隔开。例如:“192
rc/main/resources”下,即“/opt/client/src/main/resources”。“/opt/client”为客户端安装路径,具体以实际为准。 进入目录“/opt/client”,首先确保“src/main/resources”目录下和依赖库文件目录下的
示列统计信息: DESC FORMATTED src a 使用限制:当前统计信息收集不支持针对分区表的分区级别的统计信息。 在Spark客户端的“spark-defaults.conf”配置文件中进行表1设置。 表1 参数介绍 参数 描述 默认值 spark.sql.cbo.enabled
服务参数配置如果使用旧的存储目录,需要更新为新目录。 前提条件 在各个数据节点准备并安装好新磁盘,并格式化磁盘。 已安装好Kafka客户端。 更改Broker单个实例的存储目录时,保持活动的Broker实例数必须大于创建主题时指定的备份数。 操作步骤 更改Kafka角色的存储目录
k.apache.org/docs/latest/quick-start.html。 常用命令 Shell命令执行方法: 进入Spark客户端目录。 初始化环境变量。 source /opt/client/bigdata_env 如果当前集群已启用Kerberos认证,执行以下命
服务参数配置如果使用旧的存储目录,需要更新为新目录。 前提条件 在各个数据节点准备并安装好新磁盘,并格式化磁盘。 已安装好Kafka客户端。 更改Broker单个实例的存储目录时,保持活动的Broker实例数必须大于创建主题时指定的备份数。 操作步骤 更改Kafka角色的存储目录
MRS 3.1.5补丁说明 MRS 3.1.5.0.3补丁基本信息 表1 补丁基本信息 补丁号 MRS 3.1.5.0.3 发布时间 2023-11-27 安装前处理 如果MRS集群节点故障或者网络不通,需要先隔离该节点,否则补丁会安装失败。 安装MRS 3.1.5.0.3补丁前,需要先安装MRS
“overwrite”是可选参数,如果未配置,则默认值为“false”。 DELETE 删除文件。 NA 配置描述 必须定期调用迁移工具,并需要在客户端的“hdfs-site.xml”文件中进行以下配置。 表3 参数描述 参数 描述 默认值 dfs.auto-data-movement.policy
用户也可以使用MySQL连接软件或者Doris WebUI界面连接数据库。 参考3创建Hudi Catalog,例如:hudi_catalog。 参考1在MySQL客户端连接Doris,执行以下命令切换到2创建的Hudi Catalog: switch hudi_catalog; 执行以下命令查看创建的Hudi表:
rc/main/resources”下,即“/opt/client/src/main/resources”。“/opt/client”为客户端安装路径,具体以实际为准。 进入目录“/opt/client”,首先确保“src/main/resources”目录下和依赖库文件目录下的
serviceDiscoveryMode=hsfabric 说明: XXX:驱动名,请以实际样例代码中的内容为准。 catalog、schema分别是JDBC客户端要连接的catalog和schema名称。 HSFabric_IP:HSFabric_Port是HSFabric的URL,多个URL以逗号隔开。例如:“192
重启NodeManager进程,也就启动了External shuffle Service。 Spark应用使用External shuffle Service。 在客户端的安装目录“/Spark/spark/conf/spark-defaults.conf”中必须添加如下配置项: spark.shuffle
示列统计信息: DESC FORMATTED src a 使用限制:当前统计信息收集不支持针对分区表的分区级别的统计信息。 在Spark客户端的“spark-defaults.conf”配置文件中进行表1设置。 表1 参数介绍 参数 描述 默认值 spark.sql.cbo.enabled
ZooKeeper Znode数量使用率超出阈值”左侧下拉菜单,在“定位信息”的“服务目录”中获取告警的Znode路径。 以集群用户登录ZooKeeper客户端,删除告警对应Znode下的无用数据。 登录FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > ZooKeeper
serviceDiscoveryMode=hsbroker 说明: XXX:驱动名,请以实际样例代码中的内容为准。 catalog、schema分别是JDBC客户端要连接的catalog和schema名称。 HSBroker_IP:HSBroker_Port,是HSBroker的URL,多个URL以逗号隔开。例如:“192
serviceDiscoveryMode=hsfabric 说明: XXX:驱动名,请以实际样例代码中的内容为准。 catalog、schema分别是JDBC客户端要连接的catalog和schema名称。 HSFabric_IP:HSFabric_Port是HSFabric的URL,多个URL以逗号隔开。例如:“192
serviceDiscoveryMode=hsbroker 说明: XXX:驱动名,请以实际样例代码中的内容为准。 catalog、schema分别是JDBC客户端要连接的catalog和schema名称。 HSBroker_IP:HSBroker_Port是HSBroker的URL,多个URL以逗号隔开。例如:“192
”中,查看告警对应Znode是否被写入较多数据。 是,执行3。 否,执行4。 图1 资源使用(按二级Znode) 登录ZooKeeper客户端,删除告警对应Znode下的无用数据。 登录FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > Z
断开HDFS文件系统连接。 hdfsDisconnect(fs); 准备运行环境 在节点上安装客户端,例如安装到“/opt/client”目录。 Linux中编译并运行程序 进入Linux客户端目录,运行如下命令导入公共环境变量: cd/opt/client sourcebigdata_env