检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Manager操作 修改OMS密码 该操作会重启OMS各进程,影响集群的管理维护。 修改前确认操作的必要性,修改时确保同一时间无其它管理维护操作。 导入证书 该操作会重启OMS进程和整个集群,影响集群的管理维护和业务。 修改前确认操作的必要性,修改时确保同一时间无其它管理维护操作。 恢复OMS
'key1'='value1', 'key2'='value2') FROM root.sg.d1; 查看所有注册的UDF 在IoTDB客户端中执行下列SQL语句,可以查看所有注册的UDF: SHOW FUNCTIONS 父主题: 在IoTDBServer节点调测UDF应用
'key1'='value1', 'key2'='value2') FROM root.sg.d1; 查看所有注册的UDF 在IoTDB客户端中执行下列SQL语句,可以查看所有注册的UDF: SHOW FUNCTIONS 父主题: 在IoTDBServer节点调测UDF应用
.appName("HBaseSourceExample")\ .getOrCreate() # 向sc._jvm中导入要运行的类 java_import(spark._jvm, 'com.huawei.bigdata.spark.examples.datasources
er_1_Services_ClientConfig_ConfigFiles\HBase\config”,获取HBase相关配置文件,用于导入到HBase样例工程的配置文件目录中(通常为“conf”文件夹)。 准备MRS应用开发用户时获取的keytab认证文件也放置于该目录下。
appName("JavaHBaseBulkPutExample")\ .getOrCreate() # 向sc._jvm中导入要运行的类 java_import(spark._jvm, 'com.huawei.bigdata.spark.examples.hbasecontext
差,因此推荐使用keytab方式。 应用开发操作步骤 确认Storm和HBase组件已经安装,并正常运行。 将storm-examples导入到IntelliJ IDEA开发环境,请参见准备Storm应用开发环境。 如果集群启用了安全服务,按登录方式分为以下两种: keytab方
进入客户端解压路径“FusionInsight_Cluster_1_Services_ClientConfig\HDFS\config”,手动将配置文件导入到HDFS样例工程的配置文件目录中(通常为“conf”文件夹)。 准备MRS应用开发用户时获取的keytab文件也放置于该目录下。 在应用
.appName("HBaseSourceExample")\ .getOrCreate() # 向sc._jvm中导入要运行的类 java_import(spark._jvm, 'com.huawei.bigdata.spark.examples.datasources
进入客户端解压路径“FusionInsight_Cluster_1_Services_ClientConfig\HDFS\config”,手动将配置文件导入到HDFS样例工程的配置文件目录中(通常为“conf”文件夹)。 准备MRS应用开发用户时获取的keytab文件也放置于该目录下。 在应用
appName("JavaHBaseStreamingBulkPutExample")\ .getOrCreate() # 向sc._jvm中导入要运行的类 java_import(spark._jvm, 'com.huawei.bigdata.spark.examples.streaming
appName("JavaHBaseBulkPutExample")\ .getOrCreate() # 向sc._jvm中导入要运行的类 java_import(spark._jvm, 'com.huawei.bigdata.spark.examples.hbasecontext
appName("JavaHBaseStreamingBulkPutExample")\ .getOrCreate() # 向sc._jvm中导入要运行的类 java_import(spark._jvm, 'com.huawei.bigdata.spark.examples.streaming
配置Spark动态脱敏 Spark Distinct聚合优化 配置Spark作业失败时清理残留文件 配置Spark加载第三方jar包,用于注册UDF或者扩展SparkSQL 父主题: 使用Spark/Spark2x
getExecutionEnvironment // 设置job的并发度为2 env.setParallelism(2) //设置Zookeeper为注册服务器 val zkRegisterServerHandler = new ZookeeperRegisterServerHandler
getExecutionEnvironment // 设置job的并发度为2 env.setParallelism(2) //设置Zookeeper为注册服务器 val zkRegisterServerHandler = new ZookeeperRegisterServerHandler
getExecutionEnvironment // 设置job的并发度为2 env.setParallelism(2) //设置Zookeeper为注册服务器 val zkRegisterServerHandler = new ZookeeperRegisterServerHandler
fold/aggregate(返回几个标量)、take(返回前几个元素)。 生成Scala集合类型,如collect(把RDD中的所有元素导入Scala集合类型)、lookup(查找对应key的所有值)。 写入存储,如与前文textFile对应的saveAsTextFile。 还
fold/aggregate(返回几个标量)、take(返回前几个元素)。 生成Scala集合类型,如collect(把RDD中的所有元素导入Scala集合类型)、lookup(查找对应key的所有值)。 写入存储,如与前文textFile对应的saveAsTextFile。 还
fold/aggregate(返回几个标量)、take(返回前几个元素)。 生成Scala集合类型,如collect(把RDD中的所有元素导入Scala集合类型)、lookup(查找对应key的所有值)。 写入存储,如与前文textFile对应的saveAsTextFile。 还