检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
hdfs dfs -chmod 700 /tmp/test 客户端常见使用问题 问题一:当执行HDFS客户端命令时,客户端程序异常退出,报“java.lang.OutOfMemoryError”的错误。 该问题是由于HDFS客户端运行时所需的内存超过了HDFS客户端设置的内存上限(默
v1.*; import com.huaweicloud.sdk.mrs.v1.model.*; import java.util.List; import java.util.ArrayList; public class ListClustersByTagsSolution
get("hadoop.security.authentication"))) { System.setProperty("java.security.krb5.conf", PATH_TO_KRB5_CONF); LoginUtil.login(PRNCIPAL_NAME
jar commons-configuration2-<version>.jar guava-<version>.jar protobuf-java-<version>.jar netty-all-<version>.jar zookeeper-<version>.jar zookeeper-<version>
Manager首页,选择“集群 > 服务 > Spark2x > 配置”,单击“全部配置”,选择“JobHistory2x > 默认”,“SPARK_DAEMON_JAVA_OPTS”参数中“-XX:MaxDirectMemorySize”的默认值为512M,可根据如下原则调整: 告警时间段内JobHist
SECURITY_PROTOCOL为连接Kafka的协议类型,在本示例中,配置为“PLAINTEXT”。 确认“WordCountDemo.java”内的参数无误后,将工程编译后进行打包,获取打包后的jar文件。 编译jar包详细操作可参考在Linux中调测程序。 图3 编译Kafka程序
v2.*; import com.huaweicloud.sdk.mrs.v2.model.*; import java.util.List; import java.util.ArrayList; public class ShrinkClusterSolution {
内容说明请参考表1,条目较多时,单击搜索框可根据关键字字段进行筛选。 表1 Audit信息 页签 内容描述 Access 当前MRS不支持在线查看组件资源的审计日志信息,可登录组件安装节点,进入“/var/log/Bigdata/audit”目录下查看各组件的审计日志。 Admin
HetuEngine支持配置IoTDB数据源。 Hudi 升级到0.11.0版本。 IoTDB 新增组件,一体化收集、存储、管理与分析物联网时序数据的服务。 集群管理 支持补丁在线推送及更新。 组件版本信息 表1 MRS组件版本信息 组件 版本 CarbonData 2.2.0 ClickHouse 22.3.2.2
commons-logging-<version>.jar guava-<version>.jar hadoop-*.jar protobuf-java-<version>.jar jackson-databind-<version>.jar jackson-core-<version>
get("hadoop.security.authentication"))) { System.setProperty("java.security.krb5.conf", PATH_TO_KRB5_CONF); LoginUtil.login(PRNCIPAL_NAME
景,为了保障与数据表的一致性,索引表TTL将自动继承数据表索引列和覆盖列的TTL,不支持手动指定。 索引在线变更 支持索引在线创建、删除和修改状态,不影响数据表读写。 索引在线修复 当查询命中的索引数据无效时,可以触发索引修复,保障最终查询结果正确。 索引工具 支持索引一致性检查
本章节代码样例基于Kafka新API,对应Eclipse工程中com.huawei.storm.example.kafka.NewKafkaTopology.java。 本章节只适用于MRS产品Storm与Kafka组件间的访问。本章中描述的jar包的具体版本信息请以实际情况为准。 应用开发操作步骤
进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名与文件名等请与实际代码保持一致,此处仅为示例): 运行Scala和Java样例程序 bin/spark-submit --class com.huawei.bigdata.spark.examples.FemaleInfoCollection
进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名与文件名等请与实际代码保持一致,此处仅为示例): 运行Scala和Java样例程序 bin/spark-submit --class com.huawei.bigdata.spark.examples.FemaleInfoCollection
进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名与文件名等请与实际代码保持一致,此处仅为示例): 运行Scala和Java样例程序 bin/spark-submit --class com.huawei.bigdata.spark.examples.FemaleInfoCollection
\"user_name\":\"root\",\"driver_path\":\"mrs-public/dirvers/mysql-connector-java-5.1.47.jar\"}", "last_update_time" : 1681270961, "create_by"
请根据实际安装目录修改。 客户端目录/Sqoop/sqoop/lib下已有对应驱动包(例mysql驱动包mysql-connector-java-5.1.47.jar),如果没有请参考Sqoop1.4.7适配MRS 3.x集群章节中的步骤3下载对应mysql包。 sqoop export(HDFS到MySQL)
* you can do it as below: * System.setProperty("java.security.auth.login.config", confDirPath + * "jaas.conf");
进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名与文件名等请与实际代码保持一致,此处仅为示例): 运行Scala和Java样例程序 bin/spark-submit --class com.huawei.bigdata.spark.examples.FemaleInfoCollection