检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
admin用户在Ranger中的用户类型为“User”,只能查看Access Manager和Security Zone页面。 如需查看所有管理页面,需要切换至rangeradmin用户或者其他具有Ranger管理员权限的用户: 在Ranger WebUI界面,单击右上角用户名,选择“Log
true为使用Hash算法,使用多租户模式时,该参数需配置为true。 false为使用随机连接,多主实例模式,配置为false。 true 说明: 该参数修改后需要重新下载客户端。 spark.thriftserver.proxy.enabled 是否使用多租户模式。 false表示使用多实例模式。 true表示使用多租户模式。
系统不稳定:如果扩容过程中出现错误,可能会对系统文件造成损坏,导致系统不稳定或无法启动。 磁盘无法使用:如果扩容失败,可能会导致磁盘无法使用,需要重新格式化磁盘,以便重新分区。 性能降低:如果磁盘分区过于拥挤,可能会导致系统性能降低。扩容失败后,磁盘仍然过于拥挤,可能会继续影响系统性能。
群未启用Kerberos认证(普通模式)请跳过该步骤。 kinit hdfs 按提示输入密码,用户密码可以向MRS集群管理员获取,首次认证需要修改密码。 执行以下命令退出HDFS安全模式。 hdfs dfsadmin -safemode leave 等待5分钟,检查该告警是否恢复。
安装目标补丁。 安装补丁操作步骤和补丁实施的影响,具体请参考MRS集群补丁说明。 在弹窗口中勾选“我已经阅读《补丁说明》并了解此操作可能需要重启服务。”,单击“是”,等待补丁安装成功。 查看补丁状态,补丁安装完成后,按照补丁说明进行重启组件和安装客户端补丁等操作。 若集群中存在
Streaming中常见的类有: StreamingContext:是Spark Streaming功能的主入口,负责提供创建DStreams的方法,入参中需要设置批次的时间间隔。 dstream.DStream:是一种代表RDDs连续序列的数据类型,代表连续数据流。 dstream.PariDS
Streaming中常见的类有: StreamingContext:是Spark Streaming功能的主入口,负责提供创建DStreams的方法,入参中需要设置批次的时间间隔。 dstream.DStream:是一种代表RDDs连续序列的数据类型,代表连续数据流。 dstream.PariDS
Streaming中常见的类有: StreamingContext:是Spark Streaming功能的主入口,负责提供创建DStreams的方法,入参中需要设置批次的时间间隔。 dstream.DStream:是一种代表RDDs连续序列的数据类型,代表连续数据流。 dstream.PariDS
控指标内容显示正确。 通过Kafka Client,判断是否可以正常消费数据。 假设客户端已经安装在/opt/client目录,test为需要消费的Topic名称, 192.168.234.231为ZooKeeper的IP地址。 cd /opt/client source bigdata_env
format("kafka").option("subscribe", "newTopic") sink的类型发生变化:允许特定的几个sink的组合,具体场景需要验证确认,例如: File sink允许变更为kafka sink,kafka中只处理新数据。 kafka sink不允许变更为file sink。
format("kafka").option("subscribe", "newTopic") sink的类型发生变化:允许特定的几个sink的组合,具体场景需要验证确认,例如: File sink允许变更为kafka sink,kafka中只处理新数据。 kafka sink不允许变更为file sink。
format("kafka").option("subscribe", "newTopic") sink的类型发生变化:允许特定的几个sink的组合,具体场景需要验证确认,例如: File sink允许变更为kafka sink,kafka中只处理新数据。 kafka sink不允许变更为file sink。
精确一次:数据成功传递,不丢失,不冗余处理。此情况下,性能最差。 可靠性不同级别的选择,需要根据业务对可靠性的要求来选择、设计。例如对于一些对数据丢失不敏感的业务,可以在业务中不考虑数据丢失处理从而提高系统性能;而对于一些严格要求数据可靠性的业务,则需要使用精确一次的可靠性方案,以确保数据被处理且仅被处理一次。
以root用户登录告警所在主机,用户密码为安装前用户自定义,请咨询系统管理员。 执行命令ethtool 网口名称,查看当前网口速率最大值Speed。 对于虚拟机环境,通过命令可能无法查询到网口速率,建议直接联系系统管理确认网口速率是否满足需求。 若网络写吞吐率超过阈值,直接联系网络管理员,提升网口速率。
中请使用https协议。 安全模式下,需要设置spark.ui.customErrorPage=false并重启spark2x服务 (JobHistory2x、JDBCServer2x和SparkResource2x三个实例对应的参数都需要修改)。 与HTTP服务访问相比,以HT
变长字符串,n指字节长度。 CHAR(n) 定长字符串,不足补空格。n是指字节长度,如不带精度n,默认为1。 VARBINARY 变长二进制数据。需要带上前缀X,如:X'65683F',暂不支持指定长度的二进制字符串。 JSON 取值可以是a JSON object、a JSON array、a
true为使用Hash算法,使用多租户模式时,该参数需配置为true。 false为使用随机连接,多主实例模式,配置为false。 true 说明: 该参数修改后需要重新下载客户端。 spark.thriftserver.proxy.enabled 是否使用多租户模式。 false表示使用多实例模式 true表示使用多租户模式
host String) as 'carbondata' PROPERTIES ('table_blocksize'='128'); 对于不需要高精度的度量,无需使用numeric (20,0)数据类型,建议使用double数据类型来替换numeric (20,0)数据类型,以提高查询性能。
创建Hive表,默认false,如果目标表不存在,则会创建目标表 --hive-table 指定hive表 --table 关系型数据库表名 --columns 指定需要导入的关系型数据表字段 --query 指定查询语句,将查询结果导入 hcatalog参数 --hcatalog-database 指定h
<MRS集群用户> 例如:kinit -kt /opt/hive_examples/conf/user.keytab hiveuser 在连接安全集群时需要在hive客户端的HCatalog的配置文件(例如:/opt/client/Hive/HCatalog/conf/hive-site.xml)中添加如下配置: