检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数据融合处理 MRS提供多种主流计算引擎:MapReduce(批处理)、Tez(DAG模型)、Spark(内存计算)、SparkStreaming(微批流计算)、Storm(流计算)、Flink(流计算),满足多种大数据应用场景,将数据进行结构和逻辑的转换,转化成满足业务目标的数据模型
执行以下命令,切换到客户端目录,例如“/opt/client/Kafka/kafka/bin”。 cd /opt/client/Kafka/kafka/bin 执行以下命令,配置环境变量。 source /opt/client/bigdata_env 执行以下命令,进行用户认证。
认证的集群相关操作请参见Phoenix命令行,未开启Kerberos认证的集群相关操作请参见Phoenix命令行: 从官网(https://phoenix.apache.org/download.html)下载phoenix二进制包上传至集群的任一Master节点,解压后修改相应权限并切换到
name\n" + "AND t1.proctime BETWEEN t2.proctime - INTERVAL '1' SECOND AND t2.proctime + INTERVAL '1' SECOND"); //将查询结果转换为
地址,<subscribe-type>指Kafka订阅类型(一般为subscribe,代表订阅指定的topic),<topic>指读取Kafka上的topic名称,<protocol>指安全访问协议,<service>指kerberos服务名称,<domain>指kerberos域名
表示一个连续的数据流,是从数据源获取或者通过输入流转换生成的数据流。从本质上说,一个DStream表示一系列连续的RDD。 堆内存(Heap Memory) 堆是JVM运行时数据区域,所有类实例和数组的内存均从此处分配。初始堆内存根据JVM启动参数-Xms控制。
以root用户登录主OMS节点,执行以下命令切换至omm用户。 sudo su - omm 执行以下命令,将客户端安装包复制到指定节点。
在“租户管理”页签左侧租户列表,单击目标的租户,切换到“资源”页签,单击也能打开修改队列配置页面(仅适用于MRS 3.x之前版本)。 一个队列只能绑定一个非default资源池。 默认资源标签选择步骤二:添加资源池时填写的标签,其他参数请根据实际情况填写。 单击“确定”。
登录安装Flume客户端节点,切换到客户端安装目录,执行以下命令修改文件: vi conf/jaas.conf 修改参数“keyTab”定义的用户认证文件完整路径即4中保存用户认证文件的目录:“Flume客户端安装目录/fusioninsight-flume-Flume组件版本号/
执行以下命令,切换到客户端目录,例如“/opt/client/Kafka/kafka/bin”。 cd /opt/client/Kafka/kafka/bin 执行以下命令,配置环境变量。
执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执行distcp命令的用户所属的用户组必须为supergroup组,且执行以下命令进行用户认证。
图1 Flink Stream的各种流类型转换 流数据输入 表1 流数据输入的相关接口 API 说明 def fromElements[T: TypeInformation](data: T*): DataStream[T] 获取用户定义的多个元素的数据,作为输入流数据。
图1 Flink Stream的各种流类型转换 流数据输入 表1 流数据输入的相关接口 API 说明 def fromElements[T: TypeInformation](data: T*): DataStream[T] 获取用户定义的多个元素的数据,作为输入流数据。
图1 Flink Stream的各种流类型转换 流数据输入 表1 流数据输入的相关接口 API 说明 def fromElements[T: TypeInformation](data: T*): DataStream[T] 获取用户定义的多个元素的数据,作为输入流数据。
并行数为作业每个算子的并行数,适度增加并行数会提高作业整体算力,但也须考虑线程增多带来的切换开销,其上限是计算单元SPU数的四倍,最佳实践为计算单元SPU数的1-2倍。 JobManager内存(MB) JobManager的内存。输入值最小为4096。 提交队列 作业提交队列。
图1 Flink Stream的各种流类型转换 流数据输入 表1 流数据输入的相关接口 API 说明 def fromElements[T: TypeInformation](data: T*): DataStream[T] 获取用户定义的多个元素的数据,作为输入流数据。
执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 执行如下命令初始化环境变量。 source /opt/hadoopclient/bigdata_env 执行如下操作进行安全认证。 准备一个提交Flink作业的用户。
HetuEngine计算实例重启注意事项 当HetuEngine计算实例处于重启或者滚动重启过程中,请勿对HetuEngine服务和HetuEngine WebUI界面的数据源进行变更操作,包括修改配置,重启等操作。
若为已有的租户关联服务资源:在租户列表单击目标租户,切换到“服务关联”页签,单击“关联服务”单独配置当前租户关联资源。 若为已有的租户取消关联服务资源:在租户列表单击目标的租户,切换到“服务关联”页签,单击“删除”,并勾选“我已阅读此信息并了解其影响。”
这个转换返回了一个KeyedStream。 KeyBy操作之后返回KeyedStream,然后再调用KeyedStream的函数(例如reduce/fold/min/minby/max/maxby/sum/sumby等)进行相应操作。