检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
DataFrame describe(java.lang.String... cols) 计算统计信息,包含计数,平均值,标准差,最小值和最大值。 Row first() 返回第一行。 Row[] head(int n) 返回前n行。
describe(cols: String*): DataFrame 计算统计信息,包含计数,平均值,标准差,最小值和最大值。 first(): Row 返回第一行。 Head(n:Int): Row 返回前n行。
describe(cols: String*): DataFrame 计算统计信息,包含计数,平均值,标准差,最小值和最大值。 first(): Row 返回第一行。 Head(n:Int): Row 返回前n行。
对外接口介绍 配置Windows通过EIP访问安全模式集群Hive 使用二次开发程序产生Unable to read HiveServer2异常如何处理 使用IBM JDK产生异常“Problem performing GSS wrap”如何处理 Hive SQL与SQL2003标准有哪些兼容性问题
对外接口介绍 配置Windows通过EIP访问安全模式集群Hive 使用二次开发程序产生Unable to read HiveServer2异常如何处理 使用IBM JDK产生异常“Problem performing GSS wrap”如何处理 Hive SQL与SQL2003标准有哪些兼容性问题
def printToErr() 数据输出以标准error输出流打印出来。 def writeAsText(path: String): DataStreamSink[T] 数据输出写入到某个文本文件中。 path指的是文本文件的路径。
def printToErr() 数据输出以标准error输出流打印出来。 def writeAsText(path: String): DataStreamSink[T] 数据输出写入到某个文本文件中。 path指的是文本文件的路径。
def printToErr() 数据输出以标准error输出流打印出来。 def writeAsText(path: String): DataStreamSink[T] 数据输出写入到某个文本文件中。 path指的是文本文件的路径。
def printToErr() 数据输出以标准error输出流打印出来。 def writeAsText(path: String): DataStreamSink[T] 数据输出写入到某个文本文件中。 path指的是文本文件的路径。
public DataStreamSink<T> printToErr() 数据输出以标准error输出流打印出来。 public DataStreamSink<T> writeAsText(String path) 数据输出写入到某个文本文件中。
HetuEngine提供了统一标准SQL实现跨源协同分析,简化跨源分析操作。
public DataStreamSink<T> printToErr() 数据输出以标准error输出流打印出来。 public DataStreamSink<T> writeAsText(String path) 数据输出写入到某个文本文件中。
public DataStreamSink<T> printToErr() 数据输出以标准error输出流打印出来。 public DataStreamSink<T> writeAsText(String path) 数据输出写入到某个文本文件中。
public DataStreamSink<T> printToErr() 数据输出以标准error输出流打印出来。 public DataStreamSink<T> writeAsText(String path) 数据输出写入到某个文本文件中。
历史API V1.1 作业管理接口(废弃)
查询用户(组)与IAM委托的映射关系 功能介绍 获取用户(组)与IAM委托之间的映射关系的详细信息。 接口约束 无 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/clusters/{cluster_id}/agency-mapping 表1 路径参数
API概览 MRS提供的符合RESTful API的设计规范的接口,如表1和表2所示。如何选择不同版本的接口请参见API版本选择建议。 MRS版本演进过程中逐步废弃部分接口,具体请参见表3。 表1 V2接口 接口 功能 API URI 集群管理接口 创建集群 POST /v2/{project_id
版本集群) 支持界面删除主题(仅支持0.8.2+并设置了delete.topic.enable = true) 支持批量生成多个主题的分区分配,并可选择要使用的分区方案 支持批量运行重新分配多个主题的分区 支持为已有主题增加分区 支持更新现有主题的配置 可以为分区级别和主题级别度量标准启用
支持界面删除主题(仅0.8.2版本并设置参数“delete.topic.enable = true”的集群支持) 支持批量生成多个主题的分区分配,并可选择要使用的分区方案 支持批量运行重新分配多个主题的分区 支持为已有主题增加分区 支持更新现有主题的配置 可以为分区级别和主题级别度量标准启用
查询分析(Query Analysis):支持标准SQL查询分析,同时提供DSL(DataFrame), 并支持多种外部输入。 Apache Spark部件架构如图1所示。本文档重点介绍Spark、Spark SQL和Spark Streaming应用开发指导。