检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
org/docs/r3.1.1/api/index.html HDFS常用接口 HDFS常用的Java类有以下几个: FileSystem:是客户端应用的核心类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管
value() + " offsets: " + record.offset()); } } } 父主题: 开发Kafka应用
在左边导航上选择“General > Workspace”,在“Text file encoding”区域,选中“Other”,并设置参数值为“UTF-8”,单击“Apply”后,单击“OK”,如图1所示。 图1 设置Eclipse的编码格式 父主题: 准备MapReduce应用开发环境
ot > kafka-examples > src > main > resources > application.properties”中配置,也可以在样例运行环境上手动编写application.properties文件。没有指定默认值的配置为必选项。 bootstrap.
+ clusterName; util.exeSql(createDbSql); } 父主题: 开发ClickHouse应用
l权限。 colocation在zookeeper中的根目录默认为/hadoop/colocationDetails。 父主题: HDFS应用开发常见问题
conf”文件,会导致应用运行失败。 因此,根据应用是否涉及HBase进行以下处理: 当应用不涉及HBase时,即无需获取HBase Token。此时,将“spark.yarn.security.credentials.hbase.enabled”设置为“false”即可。 当应用涉及HBase时,将“spark
+ clusterName; util.exeSql(createDbSql); } 父主题: 开发ClickHouse应用
场景说明 场景说明 假定某个业务Kafka每1秒就会收到1个单词记录。 基于某些业务要求,开发的Spark应用程序实现如下功能: 实时累加计算每个单词的记录总数。 “log1.txt”示例文件: LiuYang YuanJing GuoYijun CaiXuyu Liyuan FangBo
//github.com/apache/storm/tree/v1.2.1/external/storm-jdbc。 父主题: Storm应用开发常见问题
Start Action 功能描述 流程任务的执行入口,每个流程任务有且仅有一个该节点。 参数解释 Start Action节点中包含的各参数及其含义,请参见表1。 表1 参数含义 参数 含义 to 后继action节点的名称 样例代码 <start to="mr-dataLoad"/>
Kill Action 功能描述 流程任务运行期间发生异常后,流程的异常结束节点。 参数解释 Kill Action节点中包含的各参数及其含义,请参见表1。 表1 参数含义 参数 含义 name kill活动的名称 message 根据业务需要,自定义的流程异常打印信息 ${wf
FS Action 功能描述 HDFS文件操作节点,支持对HDFS文件及目录的创建、删除、授权功能。 参数解释 FS Action节点中包含的各参数及其含义,请参见表1。 表1 参数含义 参数 含义 name FS活动的名称 delete 删除指定的文件和目录的标签 move 将文件从源目录移动到目标目录的标签
sendHttpGetRequest(httpClient, downloadOperationUrl, operationName); 父主题: 开发Manager应用
详情请参见https://impala.apache.org/docs/build/html/topics/impala_langref.html。 父主题: Impala应用开发常见问题
JDBC样例程序 在程序代码完成开发后,您可以在Windows开发环境中运行应用。本地和集群业务平面网络互通时,您可以直接在本地进行调测。 如果Windows开发环境中使用IBM JDK,不支持在Windows环境中直接运行应用程序。 需要在运行样例代码的本机hosts文件中设置访问节点的主
执行以下命令启动SpringBoot服务。 执行GaussDB(DWS)样例 flink run flink-dws-sink-example.jar 父主题: 调测Flink应用
--replication-factor 1 --topic topic1 开发思路 启动Flink Kafka Producer应用向Kafka发送数据。 启动Flink Kafka Consumer应用从Kafka接收数据,保证topic与producer一致。 在数据内容中增加前缀并进行打印。 父主题:
下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.spark.examples.SparkHbasetoHbase。 样例代码获取方式请参考获取MRS应用开发样例工程。 代码样例: /** * 从table1表读取数据,根据key值去table2表获取相应记录,把两者数据后,更新到table2表
public void close() { } }; } } 父主题: 开发Kafka应用