检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
默认没有已创建的转换步骤,可拖动左侧样例到编辑框,添加一个新的转换步骤。 完整的转换流程包含以下类型,每个类型请根据业务需要进行选择。 输入类型,第一个转换步骤,仅添加一种,任务涉及HBase或关系型数据库必须添加。 转换类型,中间转换步骤,可添加一种以上或不添加。 输出类型,最后一个转换步骤,仅添加一种,任务涉及HBase或关系型数据库必须添加。
配置HDFS服务权限 选择“用户 > 添加用户”,配置如下参数创建一个用户,详情请参见创建用户。 填写用户名,例如test。 用户类型为“人机”用户。 输入密码和确认新密码。 绑定“Manager_viewer”和5新建的“mrrole”角色取得权限。 图4 添加用户 单击“确定”完成用户创建。
当两个集群的安全组不相同,请执行2。 在VPC管理控制台,选择“访问控制 > 安全组”,在对应安全组名称的操作列单击“配置规则”,分别为每个安全组添加规则。 在入方向规则页签,单击“添加规则”,添加入方向规则。 优先级:优先级可选范围为1-100,默认值为1,即最高优先级。优先级数字越小,规则优先级级别越高。 策略:允许。
据的应用开发示例,实现数据分析、处理,并输出满足用户需要的数据信息。 另外以MapReduce访问HDFS、HBase、Hive为例,介绍如何编写MapReduce作业访问多个服务组件。帮助用户理解认证、配置加载等关键使用方式。 Presto presto-examples 该样
spark-submit脚本(运行的应用中带SQL操作),不支持使用proxy user参数去提交任务。另外,由于本文档中涉及的样例程序已添加安全认证,建议不要使用proxy user参数去提交任务。 基本概念 RDD 即弹性分布数据集(Resilient Distributed
需要允许用户使用密码方式登录Linux弹性云服务器(SSH方式),请参见SSH密码方式登录。 MRS集群安全组入方向将所有端口对客户端节点放开,具体操作请参考添加安全组规则。 登录MRS Manager页面,具体请参见访问MRS Manager(MRS 3.x之前版本),然后选择“服务管理”。 单击“下载客户端”。
spark-submit脚本(运行的应用中带SQL操作),不支持使用proxy user参数去提交任务。另外,由于本文档中涉及的样例程序已添加安全认证,建议不要使用proxy user参数去提交任务。 基本概念 RDD 即弹性分布数据集(Resilient Distributed
RS集群通过IAM委托对接OBS。 在MRS集群中配置AK/SK,AK/SK会明文暴露在配置文件中,请谨慎使用,具体请参考MRS集群客户端如何通过AK/SK信息对接OBS。 MRS通过集群内的Guardian组件对接OBS,为其他组件提供获取访问OBS的临时认证凭据、细粒度权限控
cnf文件,在[mysqld] 区块检查是否配置server_id,log-bin与binlog_format,若没有配置请执行如下命令添加配置项并重启MySQL,若已经配置则忽略此步骤。 $ vi my.cnf [mysqld] server_id=1 log-bin=master
登录集群Manager页面,选择“集群 > 服务 > ClickHouse > 配置 > 全部配置”。 在“clickhouse-metrika-customize”参数中添加表1中自定义配置项。 表1 自定义参数 参数 值 clickhouse_remote_servers.example_cluster.shard[1]
入了Clustering服务来重写数据以优化Hudi数据湖文件的布局。 Clustering服务可以异步或同步运行,Clustering会添加了一种新的REPLACE操作类型,该操作类型将在Hudi元数据时间轴中标记Clustering操作。 Clustering服务基于Hudi
WebUI”右侧,单击链接,访问Flink的WebUI。 参考如何创建FlinkServer作业,新建Flink SQL流作业,在作业开发界面进行如下作业配置。然后输入SQL,执行SQL校验通过后,启动作业。如下SQL示例将作为3个作业分别添加,依次运行。 需勾选“基础参数”中的“开启Chec
cnf文件,在[mysqld] 区块检查是否配置server_id,log-bin与binlog_format,如果没有配置请执行如下命令添加配置项并重启MySQL,如果已经配置则忽略此步骤。 $ vi my.cnf [mysqld] server_id=1 log-bin=master
步骤2:创建CDM集群并绑定EIP 步骤3:创建MySQL连接 步骤4:创建Hive连接 步骤5:创建迁移作业 方案架构 CDM围绕大数据迁移上云和智能数据湖解决方案,提供了简单易用的迁移能力和多种数据源到数据湖的集成能力,降低了客户数据源迁移和集成的复杂性,有效的提高您数据迁移和集成的效率。
入了Clustering服务来重写数据以优化Hudi数据湖文件的布局。 Clustering服务可以异步或同步运行,Clustering会添加了一种新的REPLACE操作类型,该操作类型将在Hudi元数据时间轴中标记Clustering操作。 Clustering服务基于Hudi
安全加固:web server响应消息统一采用UTF-8字符编码。 支持IP白名单过滤: 说明:防止非法用户登录,需在web server侧添加IP Filter过滤源IP非法的请求。 安全加固:支持IP Filter实现Web白名单配置,配置项是“jobmanager.web.a
安全加固:web server响应消息统一采用UTF-8字符编码。 支持IP白名单过滤: 说明:防止非法用户登录,需在web server侧添加IP Filter过滤源IP非法的请求。 安全加固:支持IP Filter实现Web白名单配置,配置项是“jobmanager.web.a
要求Compaction执行合并的过程必须和实时任务解耦,通过周期调度Spark任务来完成异步Compaction,这个方案的关键之处在于如何合理的设置这个周期,周期如果太短意味着Spark任务可能会空跑,周期如果太长可能会积压太多的Compaction Plan没有去执行而导致
Bytes.toBytes("q2"), Bytes.toBytes("valueD_new")); table.put(put2); 添加索引的表不应拥有大于32KB的值。 当由于列族级TTL(生存周期)过期而导致用户数据删除时,对应的索引数据不会立即删除。索引数据会在进行major
下图清晰地描述了MapReduce算法的整个流程。 图3 算法流程 概念上shuffle就是一个沟通数据连接的桥梁,实际上shuffle这一部分是如何实现的呢,下面就以Spark为例讲一下shuffle在Spark中的实现。 Shuffle操作将一个Spark的Job分成多个Stage,