检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
仅JDBC样例程序支持在本地Windows中运行。 操作步骤 编译JDBC样例程序: 在IDEA界面左下方单击“Terminal”进入终端,执行命令mvn clean package进行编译。 当输出“BUILD SUCCESS”,表示编译成功,如下图所示。编译成功后将会在样
仅JDBC样例程序支持在本地Windows中运行。 操作步骤 编译JDBC样例程序: 在IDEA界面左下方单击“Terminal”进入终端,执行命令mvn clean package进行编译。 当输出“BUILD SUCCESS”,表示编译成功,如下图所示。编译成功后将会在样
使用omm用户在主OMS节点执行如下命令重启Manager Web 服务。 $OMS_RUN_PATH/workspace/ha/module/harm/plugin/script/tomcat stop $OMS_RUN_PATH/workspace/ha/module/harm/plugin/script/tomcat
1-jar-with-dependencies.jar com.huawei.bigdata.impala.example.ExampleMain 在命令行终端查看样例代码中的Impala SQL所查询出的结果。 Linux环境运行成功结果会有如下信息。 Create table success!
1-jar-with-dependencies.jar com.huawei.bigdata.impala.example.ExampleMain 在命令行终端查看样例代码中的Impala SQL所查询出的结果。 Linux环境运行成功结果会有如下信息。 Create table success!
https://{endpoint}/v1.1/{project_id}/clusters/{cluster_id} {endpoint}具体请参考终端节点。 {project_id}信息请通过获取项目ID获取。 {cluster_id}信息即创建集群成功后返回结果中的“cluster_id”
使用Linux命令netcat -l -p <port>,启动一个简易的文本服务器。 启动应用程序连接netcat监听的port成功后,向netcat终端输入数据信息。 开发思路 启动Flink Kafka Producer应用向Kafka发送数据。 启动Flink Kafka Consum
使用Linux命令netcat -l -p <port>,启动一个简易的文本服务器。 启动应用程序连接netcat监测的port成功后,向netcat终端输入数据信息。 开发思路 启动Flink Kafka Producer应用向Kafka发送数据。 启动Flink Kafka Consum
使用Linux命令netcat -l -p <port>,启动一个简易的文本服务器。 启动应用程序连接netcat监测的port成功后,向netcat终端输入数据信息。 开发思路 启动Flink Kafka Producer应用向Kafka发送数据。 启动Flink Kafka Consum
版本支持公告 MRS集群版本生命周期
ClickHouse数据库开发 ClickHouse数据入库工具 ClickHouse数据入库规范 ClickHouse数据查询 ClickHouse数据库应用开发 父主题: ClickHouse应用开发规范
HBase应用开发规范 HBase应用开发规则 HBase应用开发建议
HDFS应用开发规范 HDFS应用开发规则 HDFS应用开发建议
Hive应用开发规范 Hive应用开发规则 Hive应用开发建议
Kafka应用开发规范 Kafka应用开发规则 Kafka应用开发建议
Spark应用开发规范 Spark应用开发规则 Spark应用开发建议
ClickHouse应用开发规范 ClickHouse设计规范概述 ClickHouse集群规划 ClickHouse数据库设计 ClickHouse宽表设计 ClickHouse物化视图设计 ClickHouse逻辑视图设计 ClickHouse数据库开发 ClickHouse数据库调优
IoTDB应用开发规范 IoTDB应用开发规则 IoTDB应用开发建议
Hudi数据表设计规范 Hudi表模型设计规范 Hudi表索引设计规范 Hudi表分区设计规范 父主题: Hudi应用开发规范
Spark on Hudi开发规范 SparkSQL建表参数规范 Spark增量读取Hudi参数规范 Spark异步任务执行表compaction参数设置规范 Spark on Hudi表数据维护规范 Spark并发写Hudi建议 Spark读写Hudi资源配置建议 Spark On