检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
String, Integer> female) throws Exception { //取出姓名和停留时间两列,用于后面按名字求逗留时间的总和 Tuple2<String, Integer> femaleAndTime
对象存储服务(OBS)用于存储用户数据,包括MRS作业输入数据和作业输出数据: MRS作业输入数据:用户程序和数据文件 MRS作业输出数据:作业输出的结果文件和日志文件 MRS中HDFS、Hive、MapReduce、Yarn、Spark、Flume和Loader等组件支持从OBS导入、导出数据。
需要采集的角色勾选“MetaStore”。 选择采集的内容勾选“jstack”和“使能jstack和jmap -histo连续采集”。 采集间隔设置为10秒,持续时长设置为2分钟。 单击“确定”,等待采集完成后单击“下载”。 请联系运维人员,并发送已收集的故障日志信息和堆栈信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。
概念。 Flink基本概念 准备开发和运行环境 Flink的应用程序支持使用Scala、Java两种语言进行开发。推荐使用IDEA工具,请根据指导完成不同语言的开发环境配置。Flink的运行环境即Flink客户端,请根据指导完成客户端的安装和配置。 准备本地应用开发环境 准备工程
在开始开发应用前,需要了解Flink的基本概念。 基本概念 准备开发和运行环境 Flink的应用程序支持使用Scala、Java两种语言进行开发。推荐使用IDEA工具,请根据指导完成不同语言的开发环境配置。Flink的运行环境即Flink客户端,请根据指导完成客户端的安装和配置。 准备本地应用开发环境 准备工程
Module”,然后单击“Next”。 如果您需要新建Java语言的工程,选择对应参数即可。 图2 选择开发环境 在工程信息页面,填写工程名称和存放路径,设置JDK版本和Scala SDK,然后单击“Finish”完成工程创建。 图3 填写工程信息 父主题: 准备Flink应用开发环境
tion的invoke方法。 def addSink(fun: T => Unit): DataStreamSink[T] 过滤和映射能力 表3 过滤和映射能力的相关接口 API 说明 def map[R: TypeInformation](fun: T => R): DataStream[R]
keytab”和“krb5.conf”文件及准备运行环境时获取的配置文件放到样例工程的“storm-examples\src\main\resources”目录下。 若要在Windows或Linux中未安装客户端时提交拓扑,则需要将“streaming-site.xml”和“storm
表1 CREATE TABLE参数描述 参数 描述 db_name Database名称,由字母、数字和下划线(_)组成。 table_name Database中的表名,由字母、数字和下划线(_)组成。 STORED AS 使用CarbonData数据格式存储数据。 TBLPROPERTIES
保留期到期后,若您仍未支付账户欠款,那么集群将终止服务,系统中的数据也将被永久删除。 图1 按需计费MRS集群生命周期 华为云根据客户等级定义了不同客户的宽限期和保留期时长。 避免和处理欠费 欠费后需要及时充值,详细操作请参见账户充值。 若MRS集群不再使用,您可以将该集群删除,以免继续扣费。 您可以在管理控制台选择页面上方的“费用
概念。 Flink基本概念 准备开发和运行环境 Flink的应用程序支持使用Scala、Java两种语言进行开发。推荐使用IDEA工具,请根据指导完成不同语言的开发环境配置。Flink的运行环境即Flink客户端,请根据指导完成客户端的安装和配置。 准备本地应用开发环境 准备工程
在开始开发应用前,需要了解Flink的基本概念。 基本概念 准备开发和运行环境 Flink的应用程序支持使用Scala、Java两种语言进行开发。推荐使用IDEA工具,请根据指导完成不同语言的开发环境配置。Flink的运行环境即Flink客户端,请根据指导完成客户端的安装和配置。 准备本地应用开发环境 准备连接集群配置文件
default parquet 表的默认文件格式,包括:parquet、avro和orc。 write.delete.format.default data file format 该参数的默认值和“write.format.default”参数值保持一致,可以修改为parquet、avro或orc。
件。 转储目录的磁盘空间不足。 处理步骤 检查用户名、密码和转储目录是否正确。 在MRS Manager查看转储配置页面中当前的第三方服务器用户名、密码和转储目录是否正确。 是,执行3 否,执行1.b。 修改用户名、密码和转储目录,单击“确定”,重新保存配置。 等待2分钟,查看告警列表中,该告警是否已清除。
册类。 序列化功能用在两个地方:序列化任务和序列化数据。Spark任务序列化只支持JavaSerializer,数据序列化支持JavaSerializer和KryoSerializer。 操作步骤 Spark程序运行时,在shuffle和RDD Cache等过程中,会有大量的数据
册类。 序列化功能用在两个地方:序列化任务和序列化数据。Spark任务序列化只支持JavaSerializer,数据序列化支持JavaSerializer和KryoSerializer。 操作步骤 Spark程序运行时,在shuffle和RDD Cache等过程中,会有大量的数据
doop/data1/nm/containerlogs/”目录内。 Spark Job完成的任务日志保存在HDFS的“/tmp/logs/用户名/logs”目录内。 父主题: 作业管理类
引信息,可以获取当前用户表所有相关索引的定义及索引状态。 代码样例 以下代码片段在com.huawei.bigdata.hbase.examples包的“GlobalSecondaryIndexSample”类的listIndices方法中。 本样例查询了用户表user_table对应的所有索引信息。
flink.examples.UDFState: // 用户自定义状态 class UDFState extends Serializable{ private var count = 0L // 设置用户自定义状态 def setState(s: Long)
Flume客户端可以包含多个独立的数据流,即在一个配置文件properties.properties中配置多个Source、Channel、Sink。 这些组件可以链接以形成多个数据流。 例如在一个配置中配置两个数据流,示例如下: server.sources = source1 source2 server