检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
describe(cols: String*): DataFrame 计算统计信息,包含计数,平均值,标准差,最小值和最大值。 first(): Row 返回第一行。 Head(n:Int): Row 返回前n行。
describe(cols: String*): DataFrame 计算统计信息,包含计数,平均值,标准差,最小值和最大值。 first(): Row 返回第一行。 Head(n:Int): Row 返回前n行。
DataFrame describe(java.lang.String... cols) 计算统计信息,包含计数,平均值,标准差,最小值和最大值。 Row first() 返回第一行。 Row[] head(int n) 返回前n行。
def printToErr() 数据输出以标准error输出流打印出来。 def writeAsText(path: String): DataStreamSink[T] 数据输出写入到某个文本文件中。 path指的是文本文件的路径。
def printToErr() 数据输出以标准error输出流打印出来。 def writeAsText(path: String): DataStreamSink[T] 数据输出写入到某个文本文件中。 path指的是文本文件的路径。
def printToErr() 数据输出以标准error输出流打印出来。 def writeAsText(path: String): DataStreamSink[T] 数据输出写入到某个文本文件中。 path指的是文本文件的路径。
public DataStreamSink<T> printToErr() 数据输出以标准error输出流打印出来。 public DataStreamSink<T> writeAsText(String path) 数据输出写入到某个文本文件中。
def printToErr() 数据输出以标准error输出流打印出来。 def writeAsText(path: String): DataStreamSink[T] 数据输出写入到某个文本文件中。 path指的是文本文件的路径。
对外接口介绍 配置Windows通过EIP访问安全模式集群Hive 使用二次开发程序产生Unable to read HiveServer2异常如何处理 使用IBM JDK产生异常“Problem performing GSS wrap”如何处理 Hive SQL与SQL2003标准有哪些兼容性问题
public DataStreamSink<T> printToErr() 数据输出以标准error输出流打印出来。 public DataStreamSink<T> writeAsText(String path) 数据输出写入到某个文本文件中。
public DataStreamSink<T> printToErr() 数据输出以标准error输出流打印出来。 public DataStreamSink<T> writeAsText(String path) 数据输出写入到某个文本文件中。
public DataStreamSink<T> printToErr() 数据输出以标准error输出流打印出来。 public DataStreamSink<T> writeAsText(String path) 数据输出写入到某个文本文件中。
对外接口介绍 配置Windows通过EIP访问安全模式集群Hive 使用二次开发程序产生Unable to read HiveServer2异常如何处理 使用IBM JDK产生异常“Problem performing GSS wrap”如何处理 Hive SQL与SQL2003标准有哪些兼容性问题
HetuEngine提供了统一标准SQL实现跨源协同分析,简化跨源分析操作。
查询用户(组)与IAM委托的映射关系 功能介绍 获取用户(组)与IAM委托之间的映射关系的详细信息。 接口约束 无 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/clusters/{cluster_id}/agency-mapping 表1 路径参数
历史API V1.1 作业管理接口(废弃)
API概览 MRS提供的符合RESTful API的设计规范的接口,如表1和表2所示。如何选择不同版本的接口请参见API版本选择建议。 MRS版本演进过程中逐步废弃部分接口,具体请参见表3。 表1 V2接口 接口 功能 API URI 集群管理接口 创建集群 POST /v2/{project_id
查询分析(Query Analysis):支持标准SQL查询分析,同时提供DSL(DataFrame), 并支持多种外部输入。 Apache Spark部件架构如图1所示。本文档重点介绍Spark、Spark SQL和Spark Streaming应用开发指导。
版本集群) 支持界面删除主题(仅支持0.8.2+并设置了delete.topic.enable = true) 支持批量生成多个主题的分区分配,并可选择要使用的分区方案 支持批量运行重新分配多个主题的分区 支持为已有主题增加分区 支持更新现有主题的配置 可以为分区级别和主题级别度量标准启用
支持界面删除主题(仅0.8.2版本并设置参数“delete.topic.enable = true”的集群支持) 支持批量生成多个主题的分区分配,并可选择要使用的分区方案 支持批量运行重新分配多个主题的分区 支持为已有主题增加分区 支持更新现有主题的配置 可以为分区级别和主题级别度量标准启用