检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Policy) .withSyncPolicy(syncPolicy); //Spout生成随机语句 builder.setSpout("spout", new RandomSentenceSpout(), 1);
clean compile命令进行编译。 图4 “mvn clean compile”命令编译 编译完成,打印“Build Success”,生成target目录。 图5 编译完成 运行程序。 右键“JDBCExample.java”文件,选择“Run 'JDBCExample.main()
MRS集群节点规格升级异常 Manager页面新建的租户删除失败 MRS集群切换VPC后集群状态异常不可用 MRS管理控制台上提交作业异常处理 生成HA证书时报错“symbol xxx not defined in file libcrypto.so.1.1” MRS集群Core节点扩容成功后部分实例启动失败
clean compile命令进行编译。 图4 “mvn clean compile”命令编译 编译完成,打印“Build Success”,生成target目录。 图5 编译完成 运行程序。 右键“JDBCExample.java”文件,选择“Run 'JDBCExample.main()
请联系华为云技术支持开通数据盘扩容功能。 参照数据盘扩容(一键扩容)进行云硬盘(EVS)容量扩容。 此时只能将云硬盘(EVS)扩容至目标容量,磁盘分区和文件系统无法自动扩容。 进行磁盘分区和文件系统扩容。 请参考补丁下载地址下载数据盘扩容补丁,参考补丁说明中(补丁包中名为README.md的文件)操作步骤进行磁盘分区和文件系统扩容。
当客户端所在主机不是集群中的节点时,需要在客户端所在节点的hosts文件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。 操作步骤 执行mvn package生成jar包,在工程目录target目录下获取,比如:hdfs-examples-1.0.jar。 将导出的Jar包拷贝上传至Linux客户端
of days of warning before password expires : 7 修改密码有效期 “机机”用户密码随机生成,密码默认永不过期。 “人机”用户密码的有效期可以在Manager页面通过修改密码策略进行修改。 具体操作如下: “人机”用户密码有效期可以参考修改密码策略章节修改。
SparkLauncher.launch()方法,将用户的应用程序提交。 将SparkLauncher程序和用户应用程序分别生成Jar包,并上传至运行此应用的Spark节点中。生成Jar包的操作步骤请参见在Linux环境中编包并运行Spark程序章节。 SparkLauncher程序的编译依赖包为spark-launcher_2
打包项目 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 编译打包前,样例代码中的user.keytab、krb5.conf文件路径
Sqlline接口介绍 可以直接使用sqlline.py在服务端对HBase进行SQL操作。Phoenix的sqlline接口与开源社区保持一致,请参见http://phoenix.apache.org/。 Sqlline常用语法见表1,常用函数见表2,命令行使用可以参考Phoenix命令行操作介绍章节。
SparkLauncher.launch()方法,将用户的应用程序提交。 将SparkLauncher程序和用户应用程序分别生成Jar包,并上传至运行此应用的Spark节点中。生成Jar包的操作步骤请参见在Linux环境中编包并运行Spark程序章节。 SparkLauncher程序的编译依赖包为spark-launcher_2
在确定数据都为新数据时建议使用INSERT,当存在更新数据时建议使用UPSERT,当初始化数据集时建议使用BULK_INSERT。 批量写入Hudi表 引入Hudi包生成测试数据,参考使用Spark Shell创建Hudi表章节的2到4。 写入Hudi表,写入命令中加入参数:option("hoodie.datasource
min:DataNode快速退服特性场景下,Block满足退服条件的最小可用副本数量。取值范围1~3。 由于MapReduce任务执行时,会生成一些副本数为10的文件,此时若DataNode实例数少于10时,将无法进行退服操作。 如果退服前,DataNode节点的机架数(机架数由各
在确定数据都为新数据时建议使用INSERT,当存在更新数据时建议使用UPSERT,当初始化数据集时建议使用BULK_INSERT。 批量写入Hudi表 引入Hudi包生成测试数据,参考使用Spark Shell创建Hudi表章节的2到4。 写入Hudi表,写入命令中加入参数:option("hoodie.datasource
打包项目 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 编译打包前,样例代码中的user.keytab、krb5.conf文
SparkLauncher.launch()方法,将用户的应用程序提交。 将SparkLauncher程序和用户应用程序分别生成Jar包,并上传至运行此应用的Spark节点中。生成Jar包的操作步骤请参见在Linux环境中调测Spark应用章节。 SparkLauncher程序的编译依赖包为spark-launcher_2
non-managed-table-writes-enabled=true。 Mppdb有一个限制,数据库的标识符的最大长度为63,如果把标识符命名超过了最大长度,那么会被自动截取掉超出的部分,只留下最大长度的标识符。 跨域场景不支持建表。 描述 使用CREATE TABLE创建一个具有指定列的、新的空表。使用CREATE
Broker和Consumer Group数量。 单击“Brokers”、“Topics”、“Consumer Group”下方的数字,可自动跳转至对应页面,查看并操作对应信息。 在“Cluster Action”栏,可创建Topic与分区迁移,具体操作请参考增加Kafka Topic分区。
在Linux中调测Hive JDBC应用 执行mvn package生成jar包,在工程目录target目录下获取,比如:hive-examples-1.0.jar。 在运行调测环境上创建一个目录作为运行目录,如“/opt/hive_examples”(Linux环境),并在该目录下创建子目录“conf”。
在样例代码的“springboot/kafka-examples”目录下找到pom文件,在此文件同级目录使用maven install工具编译SpringBoot样例,此时会生成一个target文件夹,在target文件夹中得到“huawei-spring-boot-kafka-examples-*.jar”。 在