检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建HBase表的权限,具体请参见创建角色配置拥有对应权限的角色,参考创建用户为用户绑定对应角色。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit
长窗口,或大键值状态的有状态处理任务,也适合于高可用方案。 RocksDBStateBackend是内嵌数据库后端,正常情况下state存储在RocksDB数据库中,该数据库数据放在本地磁盘上,在Checkpoint时将state存储在配置的文件系统上而JobManager内存中
以客户端安装用户登录安装了Hive客户端的节点,执行以下命令: cd 客户端安装目录 source bigdata_env kinit Hive业务用户(如果集群未开启Kerberos认证,请跳过该操作) 执行以下命令使用beeline -u方式登录Hive客户端: beeline -u "jdbc:hi
productSalesTable 待创建的表的名称。该表用于加载数据进行分析。 表名由字母、数字、下划线组成。 productdb 数据库名称。该数据库将与其中的表保持逻辑连接以便于识别和管理。 数据库名称由字母、数字、下划线组成。 productName storeCity storeProvince procuctCategory
示例 架构名称 数据库模式名。 dbo 表名 数据库表名,用于最终保存传输的数据。 test 临时表名 数据库临时表名用于临时保存传输过程中的数据,字段需要和“表名”配置的表一致。 db_test 数据库类型 数据库类型,分为MOT和其他可用JDBC连接的数据库。 MOT MOT导入方式
初始化客户端环境变量。 进入安装目录“/opt/Storm_Client”执行以下命令,导入环境变量信息。 source bigdata_env 开启Kerberos认证的集群,需要申请人机用户,并进行安全登录。 从管理员处获取一个“人机”用户,用于服务认证。例如:账号john。 获取的用户需要属于storm组。
与之相连的avro source监测的端口。 21154 ssl 是否启用SSL认证(基于安全要求,建议启用此功能)。 只有“Avro”类型的Source才有此配置项。 true表示启用 false表示不启用 false 单击“导出”,将配置文件“properties.properties”保存到本地。
MRS 3.2.0及之后版本: 通过spark-sql命令来执行clustering,具体可以参考CLUSTERING章节。 MRS 3.1.2版本: spark-submit --master yarn --class org.apache.hudi.utilities.HoodieClusteringJob
fieldsGrouping("split", new Fields("word")); return builder; } 如果拓扑开启了ack,推荐acker的数量不大于所设置的worker数量。 父主题: 开发Storm应用
String[] words = line.toLowerCase(Locale.getDefault()).split(REGEX_STRING); for (String word : words) {
ive实例,选择“更多 > 重启实例”,输入当前用户密码,单击“确定”重启所有Hive实例。 是否需要在Spark/Spark2x客户端中启用此功能? 是,重新下载并安装Spark/Spark2x客户端。 否,操作结束。 父主题: Hive企业级能力增强
该任务指导用户使用Flume服务端从本地采集静态日志保存到Kafka的Topic列表(test1)。 本配置默认集群网络环境是安全的,数据传输过程不需要启用SSL认证。如需使用加密方式,请参考配置Flume加密传输数据采集任务。该配置为只用一个Flume场景,例如:Spooldir Source+Memory
需要在应用启动前已完成认证。 未提供Python样例工程的安全认证代码,推荐在运行应用程序命令中设置安全认证参数。 安全认证代码(Java版) 目前样例代码统一调用LoginUtil类进行安全认证。安全登录流程请参见安全认证接口章节。 在Spark样例工程代码中,不同的样例工程,
arkPi.scala的29行设置断点。 图4 设置断点 启动调试。 在IDEA菜单栏中选择“Run > Debug 'Unnamed'”开启调试窗口,接着开始SparkPi的调试,比如单步调试、查看调用栈、跟踪变量值等,如图5所示。 图5 调试 父主题: Spark应用开发常见问题
arkPi.scala的29行设置断点。 图4 设置断点 启动调试。 在IDEA菜单栏中选择“Run > Debug 'Unnamed'”开启调试窗口,接着开始SparkPi的调试,比如单步调试、查看调用栈、跟踪变量值等,如图5所示。 图5 调试 父主题: Spark应用开发常见问题
enableTable(final TableName tableName) 启用指定的表。如果表的region数量过多,该方法可能调用超时。 void enableTableAsync(final TableName tableName) 启用指定的表。该方法为异步调用,不会等待所有region上线后才返回。
分配给HFile/StoreFile所使用的块缓存的最大heap(-Xmx setting)的百分比。 当offheap关闭时,默认值为0.25。当offheap开启时,默认值是0.1。 父主题: HBase常见问题
enableTable(final TableName tableName) 启用指定的表。如果表的region数量过多,该方法可能调用超时。 void enableTableAsync(final TableName tableName) 启用指定的表。该方法为异步调用,不会等待所有region上线后才返回。
encoding”区域,选中“Other”,并设置参数值为“UTF-8”,单击“Apply”后,单击“OK”,如图2所示。 图2 设置Eclipse的编码格式 修改样例(未开启Kerberos认证集群可跳过此步骤)。 在5获取新建开发用户的krb5.conf和user.keytab文件后,修改ExampleMain
encoding”区域,选中“Other”,并设置参数值为“UTF-8”,单击“Apply”后,单击“OK”,如图1所示。 图1 设置Eclipse的编码格式 修改样例(未开启Kerberos认证集群可跳过此步骤)。 在4获取新建开发用户的krb5.conf和user.keytab文件后,修改ExampleMain