检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
租户资源占比=租户权重/同级别租户总权重之和。 最小资源:保证租户能获得的资源(有抢占支持)。取值可以是父租户资源的百分比或绝对值。当租户作业量比较少时,资源会自动借给其他租户,当租户能使用的资源不满足最小资源时,可以通过抢占来要回之前借出的资源。 最大资源:租户最多能使用的资源
前配置状态为过期的参数。 MRS 3.x版本集群还支持在Manager页面上直接查看实例节点上实际的环境变量、角色配置等配置文件内容,以供运维人员在需要快速排查实例对应配置项是否配置错误或者查看部分隐藏类型的配置项。 查看已修改的组件配置参数 登录集群Manager页面。 选择“集群
jar,该jar包可在MRS client目录下获取。 代码样例 下面列出producer和consumer,以及Flink Stream SQL Join使用主要逻辑代码作为演示。 完整代码参见com.huawei.bigdata.flink.examples.WriteIntoKafka和com.huawei
le sparksecurity-examples/SparkLauncherJavaExample 使用Spark Launcher提交作业的Java/Scala示例程序。 本工程应用程序通过org.apache.spark.launcher.SparkLauncher类采用J
'kerberos' ); 开启异步Lookup Join提升维表Join性能 在HBase维表with中添加如下属性: 'lookup.async'='true' 调大Lookup Join算子并行度提升维表Join性能 在HBase维表with中添加如下属性: 'lookup.parallelism'='xx'
ger与ZooKeeper。 Yarn内部和Hadoop内部都不需要用户配置加密,用户只需要配置SSL加密传输方式。 配置SSL传输,用户主要在客户端的“flink-conf.yaml”文件中做如下配置: 打开SSL开关和设置SSL加密算法,配置参数如表2所示,请根据实际情况修改对应参数值。
return table; } } /** * <写数据> * <这里未涉及到多线程多Table实例在设计模式上的优化.这里采用同步方法, * 主要是是考虑到同一个Table是非线程安全的.通常,建议一个Table实例,在同一 * 时间只能被用在一个写数据的线程中> * @param
obs.endpoint" = "xxx" ); LOAD LABEL:每个导入任务需要指定一个唯一的Label,后续可以通过该Label来查看作业运行进度。 DATA INFILE:7上传的待导入至Doris的数据文件所在的OBS路径。 COLUMNS TERMINATED BY:用
ger与ZooKeeper。 Yarn内部和Hadoop内部都不需要用户配置加密,用户只需要配置SSL加密传输方式。 配置SSL传输,用户主要在客户端的“flink-conf.yaml”文件中做如下配置: 打开SSL开关和设置SSL加密算法,配置参数如表2所示,请根据实际情况修改对应参数值。
未开启Kerberos认证集群的样例工程目录为“hdfs-example-normal”。 HDFS文件操作的Java示例程序。 本工程主要给出了创建HDFS文件夹、写文件、追加文件内容、读文件和删除文件/文件夹等相关接口操作示例。 hdfs-c-example HDFS C语言开发代码样例。
如果任务失败,选择“重试卸载”,只有当“状态”显示为“可用”时,才能进入下一步操作。 卸载失败或者重试后仍然失败,不能直接再点安装,请联系运维人员。 回退升级补丁时增加的配置 不涉及。 重启相关组件 补丁卸载完成后,需要手动重启相关大数据组件服务,使补丁生效。 提供两种重启方式,请根据业务自行选择重启方式:
safety ... 重启数据库服务: #停止 pg_ctl stop #启动 pg_ctl start CDL同步任务支持的数据类型及映射关系 主要介绍CDL同步任务支持的数据类型,以及源端数据库数据类型跟Spark数据类型的映射关系。 表3 PgSQL和Spark数据类型映射关系 PostgreSQL数据类型
ED_HIGH_MEM时,默认值是“128KB” state.backend.rocksdb.files.open -1 最大打开句柄数,主要被用在SST文件句柄上,“-1”表示不限制 父主题: Flink性能调优
ERBEROS认证模式又有SIMPLE认证模式,只能使用STANDALONE模式或者配置不同的Agent。 说明:STANDALONE模式主要是用来解决版本冲突问题的运行模式。当同一种数据连接的源端或者目的端连接器的版本不一致时,存在jar包冲突的情况,这时需要将源端或目的端放在
数据的能力。当前Spark支持两种数据处理方式:Direct Streaming和Receiver。 Direct Streaming方式主要通过采用Direct API对数据进行处理。以Kafka Direct接口为例,与启动一个Receiver来连续不断地从Kafka中接收数据并写入到WAL中相比,Direct
如果用户访问别人创建的表或数据库,需要授予权限。所以根据HetuEngine使用场景的不同,用户需要的权限可能也不相同。 表2 HetuEngine使用场景 主要场景 用户需要的权限 使用HetuEngine表、列或数据库 使用其他用户创建的表、列或数据库,不同的场景需要不同的权限,例如: 创建表,需要“建表”权限。
Processing)场景:高并发pipeline处理数据,时延毫秒级,且兼具可靠性。 Flink整个系统包含三个部分: Client Flink Client主要给用户提供向Flink系统提交用户任务(流式作业)的能力。 TaskManager Flink系统的业务执行节点,执行具体的用户任务。Ta
INTO TABLE person;。 执行命令!q退出。 由于Hive加载数据将HDFS对应数据目录清空,所以需再次执行1。 功能介绍 该样例主要分为三个部分。 从HDFS原文件中抽取name信息,查询HBase、Hive相关数据,并进行数据拼接,通过类MultiComponentMapper继承Mapper抽象类实现。
ger与ZooKeeper。 Yarn内部和Hadoop内部都不需要用户配置加密,用户只需要配置SSL加密传输方式。 配置SSL传输,用户主要在客户端的“flink-conf.yaml”文件中做如下配置: 打开SSL开关和设置SSL加密算法,针对MRS 3.x及之后版本,配置参数
的数据是否包含敏感信息无法感知,因此需要客户保证输入数据是脱敏的。 客户可以根据应用环境,权衡配置安全与否。 任何与安全有关的问题,请联系运维人员。 父主题: Flink用户权限管理