检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用户管理:提供用户的增、删、改、查基本功能,提供用户绑定用户组和角色的功能。 具体请参见管理MRS集群用户。 租户管理:提供租户的增、删、改、查基本功能以及租户与组件资源的绑定关系。MRS集群为了便于管理,为每个租户都会默认产生一个角色。如果定义租户拥有某些资源的权限,则租户对应的角色就拥有这些资源的权限。 具体请参见管理MRS集群租户。
后缀值“-suffixName”。 在导出作业中,支持修改导出文件的路径或者文件名“-outputPath”。 指定参数值为“rdb”表示关系型数据库连接器。 在导入作业中,支持修改数据库模式名“-schemaName”、表名“-tableName”、SQL语句“-sql”、要导
// Hive会将sql查询封装成另一个MapReduce任务并提交 // 所以不建议在MapReduce作业中调用Hive final String driver = "org.apache.hive.jdbc.HiveDriver";
应用部分临时数据无法清空。 运行DataStream样例程序(Scala和Java语言)。 在终端另开一个窗口,进入Flink客户端目录,调用bin/flink run脚本运行代码,例如: bin/flink run --class com.huawei.flink.example
创建Python任务 登录到集群Manager界面,在Yarn的WebUI页面上查看提交的pyspark应用。 图5 查看任务运行情况 验证pandas库调用。 图6 验证pandas 对接Jupyter常见问题 pandas本地import使用时,报错如下: 参考以下步骤进行处理: 执行命令python
点服务使更改的配置生效。 “hbase.rpc.protection”与“hbase.thrift.security.qop”参数值的对应关系为: "privacy" - "auth-conf" "authentication" - "auth" "integrity" - "auth-int"
后缀值“-suffixName”。 在导出作业中,支持修改导出文件的路径或者文件名“-outputPath”。 指定参数值为“rdb”表示关系型数据库连接器。 在导入作业中,支持修改数据库模式名“-schemaName”、表名“-tableName”、SQL语句“-sql”、要导
式(SASL_PLAINTEXT),9092匹配普通模式(PLAINTEXT)。 pollTimeout 500 consumer调用poll()函数能接受的最大超时时间,单位:毫秒。 ignoreLongMessage false 是否丢弃超大消息。 messageMaxLength
本地配置好Maven及SDK相关参数后,样例工程会自动加载相关依赖包,具体操作可参考配置并导入样例工程。 在示例程序“WordCountDemo”中,通过调用Kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数,关键代码片段如下: ... static Properties
// Hive会将sql查询封装成另一个MapReduce任务并提交 // 所以不建议在MapReduce作业中调用Hive final String driver = "org.apache.hive.jdbc.HiveDriver";
UserManager.main(UserManager.java:120) 从日志信息中可以看到:执行UserManager类中的main方法时,依次调用loginAndAccess、sendHttpPostRequest、sendHttpGetRequest、sendHttpPutRequ
设置“委托名称”。例如:mrs_ecs_obs。 “委托类型”选择“云服务”,在“云服务”中选择“弹性云服务器ECS 裸金属服务器 BMS”,授权ECS或BMS调用OBS服务。 图2 创建委托 “持续时间”选择“永久”并单击“完成”。 在授权的确认弹窗中,单击“立即授权”,在弹出的授权页面,单击“新建策略”。
表分区个数 Hive所有表分区个数监控,返回值的格式为:数据库#表名,表分区个数。 HQL的Map数 Hive周期内执行的HQL与执行过程中调用的Map数统计,展示的信息包括:用户、HQL语句、Map数目。 HQL访问次数 周期内HQL访问次数统计信息。 Kafka Kafka磁盘使用率分布
该服务中所有角色实例状态为“未知”。 正在恢复 后台系统正在尝试自动启动服务。 亚健康 该服务所依赖的服务状态不正常,异常服务的相关接口无法被外部调用,此时与状态不正常服务相关的上层业务会受到影响。 HBase、Hive、Spark和Loader组件可显示“亚健康”(Subhealthy)状态。
key-password”、“security.ssl.keystore-password”和“security.ssl.truststore-password”的值设置为调用“generate_keystore.sh”脚本时输入的密码。配置文件中包含认证密码信息可能存在安全风险,建议当前场景执行完毕后删除相关配置文件或加强安全管理。
式(SASL_PLAINTEXT),9092匹配普通模式(PLAINTEXT)。 pollTimeout 500 consumer调用poll()函数能接受的最大超时时间,单位:毫秒。 ignoreLongMessage false 是否丢弃超大消息。 messageMaxLength
导入样例工程。 图1 Spark Hive to HBase样例程序 在示例程序“SparkHivetoHbase”中,通过使用Spark调用Hive接口来操作Hive表,然后根据key值去HBase表获取相应记录,把两者数据做操作后,更新到HBase表。 关键代码片段如下: .
程会自动加载相关依赖包,具体操作可参考配置并导入样例工程。 图2 导入Kafka样例程序 在示例程序“WordCountDemo”中,通过调用Kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数,关键代码片段如下: ... static Properties
是omm用户,且权限为755。 运行DataStream(Scala和Java)样例程序。 在终端另开一个窗口,进入Flink客户端目录,调用bin/flink run脚本运行代码。 Java bin/flink run --class com.huawei.bigdata.flink
output=</path/for/output>:表示执行结果输出路径,需指定一个不存在的路径。 <columns>:表示导入数据在表中的对应关系,例如,-Dimporttsv.columns=HBASE_ROW_KEY,info:name,info:gender,info:age,address:city