检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
io/os/javadoc/2.0/index.html。 HTTP REST API Master REST API:https://docs.alluxio.io/os/restdoc/2.0/master/index.html Worker REST API:https://docs
7运行时,使用yarn-client模式向服务端提交Spark任务。 Oracle JDK需进行安全加固,具体操作如下。 到Oracle官方网站获取与JDK版本对应的JCE(Java Cryptography Extension)文件。JCE文件解压后包含“local_policy
Path 说明 /config 有关监控API和服务器设置的一些信息。 /logout 注销的重要信息。 /overview Flink集群状态的简单概要。 /jobs Job的ID,按运行,完成,失败和取消等状态进行分组。 /jobmanager/config JobManager的配置。
Path 说明 /config 有关监控API和服务器设置的一些信息。 /logout 注销的重要信息。 /overview Flink集群状态的简单概要。 /jobs Job的ID,按运行,完成,失败和取消等状态进行分组。 /jobmanager/config JobManager的配置。
IoTDB自定义函数(UDF)样例程序 功能简介 该样例代码介绍如何实现一个简单的IoTDB自定义函数(UDF)。 详细信息可以参考UDF样例程序与操作章节。 代码样例 以下为代码片段示例: package com.huawei.bigdata.iotdb; import org
IoTDB自定义函数(UDF)样例程序 功能简介 该样例代码介绍如何实现一个简单的IoTDB自定义函数(UDF)。 详细信息可以参考UDF样例程序与操作章节。 代码样例 以下为代码片段示例: package com.huawei.bigdata.iotdb; import org
Shell命令行界面。 list 步骤4:生成HFile文件并导入HBase 创建自定义导入的模板文件,例如模板文件为“/opt/configuration_index.xml”(模板文件样例可从“客户端安装目录/HBase/hbase/conf/index_import.xml
Storm采用的接口同开源社区版本保持一致,详情请参见: http://storm.apache.org/documentation/Home.html。 Storm-HDFS采用的接口同开源社区版本保持一致,详情参见: https://github.com/apache/storm/tree/v0
CLI详细的使用方法参考官网描述:https://ci.apache.org/projects/flink/flink-docs-release-1.7/ops/cli.html。 常用CLI Flink常用的CLI如下所示: yarn-session.sh 可以使用yarn-session.sh启动一个常驻的F
本章节介绍Hudi重要配置的详细信息,更多配置请参考Hudi官网http://hudi.apache.org/cn/docs/configurations.html。 写入操作配置 表1 写入操作重要配置项 参数 描述 默认值 hoodie.datasource.write.table.name 指定写入的Hudi表名。
/datadirImport 进入hbase shell,创建表ImportTable并创建“configuration.xml”文件(该文件可以参考模板文件进行编辑,模板文件获取路径为:“/opt/client/HBase/hbase/conf/import.xml.template”)。 例如执行以下命令建表:
org/projects/flink/flink-docs-release-1.12/dev/stream/operators/windows.html。 窗口介绍 窗口中数据的保存形式主要有中间结果和原始数据两种,对窗口中的数据使用公共算子,如sum等操作时(window(SlidingEventTimeWindows
url_extract_path('http://www.example.com:80/stu/index.html?name=xxx&age=25#teacher');-- /stu/index.html url_extract_port(url)→ bigint 描述:提取url中的端口。 select
/datadirImport 进入hbase shell,创建表ImportTable并创建“configuration.xml”文件(该文件可以参考模板文件进行编辑,模板文件获取路径为:“/opt/client/HBase/hbase/conf/import.xml.template”)。 例如执行以下命令建表:
doop.apache.org/docs/r3.1.1/hadoop-project-dist/hadoop-hdfs/WebHDFS.html。 准备运行环境 安装客户端。在节点上安装客户端,例如安装到“/opt/client”目录。 在客户端目录准备文件“testFile”和
doop.apache.org/docs/r3.1.1/hadoop-project-dist/hadoop-hdfs/LibHdfs.html。 代码样例 下面代码片段仅为演示,具体代码请参见获取样例代码解压目录中“HDFS/hdfs-c-example/hdfs_test.c”文件。
http://hadoop.apache.org/docs/r3.1.1/hadoop-project-dist/hadoop-hdfs/WebHDFS.html 准备运行环境 安装集群客户端,例如客户端安装目录为“/opt/client”。 执行下列命令进行用户认证,这里以hdfs为例,用户可根据实际用户名修改。
http://hadoop.apache.org/docs/r3.1.1/hadoop-project-dist/hadoop-hdfs/LibHdfs.html。 代码样例 下面代码片段仅为演示,具体代码请参见获取样例代码解压目录中“hdfs-c-example/hdfs_test.c”文件。 设置HDFS
http://hadoop.apache.org/docs/r3.1.1/hadoop-project-dist/hadoop-hdfs/WebHDFS.html 准备运行环境 安装客户端。在节点上安装客户端,如安装到“/opt/client”目录,可参考“安装客户端”。 在客户端目录准备文件“t
client来操作HBase,有关curl命令的详细使用方法与Apache HBase保持一致,具体请参见https://hbase.apache.org/book.html#_rest。 由于当前默认使用 SSL protocols 为 TLSv1.1,TLSv1.2,所以在启用CURL调用 REST 时需判断当前环境支持的