检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
0个文件,压缩存储。 JDBCServer2x审计日志默认20MB滚动存储一次,最多保留20个文件,压缩存储。 日志大小和压缩文件保留个数可以在FusionInsight Manager界面中配置。 表1 Spark2x日志列表 日志类型 日志文件名 描述 SparkResource2x日志
例如,将参数值设置为4MB:-Djute.maxbuffer=0x400000。 表1 配置参数 参数 描述 默认值 jute.maxbuffer 指定可以存储在znode中的数据的最大长度。单位是Byte。默认值为0xfffff,即低于1MB。 说明: 如果更改此选项,则必须在所有服务器和客户端上设置该系统属性,否则将出现问题。
river端一直在进行GC,尝试回收垃圾来存放返回的数据,导致应用长时间挂起。 解决措施: 如果用户需要在OOM场景下强制将应用退出,那么可以在启动Spark Core应用时,在客户端配置文件“$SPARK_HOME/conf/spark-defaults.conf”中的配置项“spark
JDK默认只支持TLS V1.0,若使用IBM JDK,请配置启动参数“com.ibm.jsse2.overrideDefaultTLS”为“true”,设置后可以同时支持TLS V1.0/V1.1/V1.2,详情参见https://www.ibm.com/support/knowledgecenter/zh/SSYKE2_8
JDK默认只支持TLS V1.0,若使用IBM JDK,请配置启动参数“com.ibm.jsse2.overrideDefaultTLS”为“true”,设置后可以同时支持TLS V1.0/V1.1/V1.2,详情参见https://www.ibm.com/support/knowledgecenter/zh/SSYKE2_8
获取一个拥有MRS集群管理员权限的用户,例如“admin”。 操作步骤 Spark on HBase授权 用户如果需要使用类似SQL语句的方式来操作HBase表,授予权限后可以使用SparkSQL访问HBase表。以授予用户在SparkSQL中查询HBase表的权限为例,操作步骤如下: 设置“spark.yarn
0个文件,压缩存储。 JDBCServer2x审计日志默认20MB滚动存储一次,最多保留20个文件,压缩存储。 日志大小和压缩文件保留个数可以在FusionInsight Manager界面中配置。 表1 Spark2x日志列表 日志类型 日志文件名 描述 SparkResource2x日志
例如,将参数值设置为4MB:-Djute.maxbuffer=0x400000。 表1 配置参数 参数 描述 默认值 jute.maxbuffer 指定可以存储在znode中的数据的最大长度。单位是Byte。默认值为0xfffff,即低于1MB。 说明: 如果更改此选项,则必须在所有服务器和客户端上设置该系统属性,否则将出现问题。
在“配置资源权限”的表格中选择“待操作集群的名称 > IoTDB > 普通用户权限”。 在root根目录下,勾选“设置存储组”。 当用户具有该角色权限后,可以创建root根目录下的存储组。 设置用户创建时间序列的权限 在“配置资源权限”的表格中选择“待操作集群的名称 > IoTDB > 普通用户权限”。
opengaussuser DB Password opengaussuser用户密码 Description - thirdparty-kafka也可以使用MRS Kafka作为源端,如果使用用户名(Username)密码(Password)进行登录认证,则需先登录Manager界面,选择“集群
Type drs-oracle-avro Description thirdparty-kafka Link thirdparty-kafka也可以使用MRS Kafka作为源端,如果使用用户名(Username)密码(Password)进行登录认证,则需先登录Manager界面,选择“集群
river端一直在进行GC,尝试回收垃圾来存放返回的数据,导致应用长时间挂起。 解决措施: 如果用户需要在OOM场景下强制将应用退出,那么可以在启动Spark Core应用时,在客户端配置文件“$SPARK_HOME/conf/spark-defaults.conf”中的配置项“spark
river端一直在进行GC,尝试回收垃圾来存放返回的数据,导致应用长时间挂起。 解决措施: 如果用户需要在OOM场景下强制将应用退出,那么可以在启动Spark Core应用时,在客户端配置文件“$SPARK_HOME/conf/spark-defaults.conf”中的配置项“spark
river端一直在进行GC,尝试回收垃圾来存放返回的数据,导致应用长时间挂起。 解决措施: 如果用户需要在OOM场景下强制将应用退出,那么可以在启动Spark Core应用时,在客户端配置文件“$SPARK_HOME/conf/spark-defaults.conf”中的配置项“spark
WebUI”后的链接进入Yarn原生页面。 根据告警“定位信息”中的任务名找到异常任务,查找并记录作业的“application ID”,是否可以在Yarn原生页面上查看到作业日志。 图1 作业的“application ID” 是,执行16。 否,执行18。 单击失败作业application
WebUI”后的链接进入Yarn原生页面。 根据告警“定位信息”中的任务名找到异常任务,查找并记录作业的“application ID”,是否可以在Yarn页面上查看到作业日志。 图1 作业的“application ID” 是,执行12。 否,执行13。 单击失败作业application
服务配置”,修改RangerAdmin配置。 搜索并修改配置项policymgr_https_keystore_password值为3中输入的证书密码,即输入的证书密码。 可以使用复制粘贴,此处密码不一致,将会导致Ranger组件重启失败。 保存配置,并滚动重启RangerAdmin。 确认RangerAdmin
”则表示开启成功。 show variables like 'log_%' 如果当前MySQL未开启bin log功能,需执行以下操作: 可以通过修改MySQL的配置文件“my.cnf” (Windows系统是“my.ini”)开启,操作如下: server-id
务和页面上的赋权功能。 页面赋权:HetuEngine仅支持页面赋权的方式。在Manager的“系统 > 权限”中,可以进行用户、用户组和角色的添加/删除操作,可以对某个角色进行赋权/撤权。 服务获权并判断:当接收到客户端的DDL、DML的SQL命令时,HetuEngine服务会
ALTER TABLE table_name [PARTITION partition_spec] SET LOCATION location; 可以使用ALTER TABLE [PARTITION] SET位置设置表的表或分区位置。 在Set location命令之后,表/分区数据可能不会显示。