检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
问题 当用户设置“blob.storage.directory”为“/home”时,用户没有权限在“/home”下创建“blobStore-UUID”的文件,导致yarn-session启动失败。 回答 建议将"blob.storage.directory"配置选项设置成“/tmp
升级安装失败或者重试后仍然失败,不能直接回滚,请联系运维人员。 修改配置 MRS_3.2.0-LTS.1.6以及之后补丁,Spark支持视图表权限控制,开启方法(若之前有设置过,则跳过):在JDBCServer的自定义custom参数添加spark.ranger.plugin.viewaccesscontrol.
问题 当用户设置“blob.storage.directory”为“/home”时,用户没有权限在“/home”下创建“blobStore-UUID”的文件,导致yarn-session启动失败。 回答 建议将"blob.storage.directory"配置选项设置成“/tmp
状态和使用统计。 存储资源目前支持HDFS存储,可以添加删除租户HDFS存储目录,设置目录的文件数量配额和存储空间配额。 Manager作为MRS的统一租户管理平台,用户可以在界面上根据业务需要,在集群中创建租户、管理租户。 创建租户时将自动创建租户对应的角色、计算资源和存储资源
普通用户权限”。 在root根目录下,勾选“设置存储组”。 当用户具有该角色权限后,可以创建root根目录下的存储组。 设置用户创建时间序列的权限 在“配置资源权限”的表格中选择“待操作集群的名称 > IoTDB > 普通用户权限”。 在root根目录下,勾选“创建”,表示在root根目
Topic创建操作时发现无法创建提示“replication factor larger than available brokers” 问题背景与现象 在使用Kafka客户端命令创建Topic时,发现Topic无法被创建。 kafka-topics.sh --create --replication-factor
server version 21.3.4 revision 54447. 执行命令修改allow_drop_detached的值。 例如:设置allow_drop_detached=1 set allow_drop_detached=1; 执行如下命令查看allow_drop_detached的值:
安装客户端时编译并运行HBase应用 HBase应用程序支持在安装HBase客户端的Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至Linux环境中运行应用。 前提条件 已安装HBase客户端。 Linux环境已安装JDK,版本号需要和Eclipse导出Jar包使用的JDK版本一致。
升级安装失败或者重试后仍然失败,不能直接回滚,请联系运维人员。 修改配置 MRS_3.2.0-LTS.1.6以及之后补丁,Spark支持视图表权限控制,开启方法(若之前有设置过,则跳过):在JDBCServer的自定义custom参数添加spark.ranger.plugin.viewaccesscontrol.
MRS_3.2.0-LTS.1.10以及之后补丁,修复管控面提交Spark长稳业务中业务jar包和业务表在同一个OBS桶下偶现OBS 403认证过期问题,开启方法(若之前有设置过,则跳过):在Master节点通过ps -ef | grep executor命令确定executor进程ID,并添加参数executor
C”。否则会导致连接生成的临时文件无法删除,长期会累积产生大量的垃圾文件。 在使用beeline客户端时,如果需要在一行中输入多条语句,语句之间以“;”分隔,需要将“entireLineAsCommand”的值设置为“false”。 设置方法:如果未启动beeline,则执行beeline --en
配置完成后,左上角单击“保存”,在Kafka“实例”界面,勾选Broker实例,选择“更多 > 滚动重启实例”,等待滚动重启完成生效。 (可选)如果需要关闭此配置,将“enable.advertised.listener”设置为“false”,单击“保存”。在Kafka“实例”界面,勾选Broker实例,选择“更多
ClickHouse集群创建成功后,可以通过ClickHouse客户端访问连接ClickHouse服务端。 本章节指导用户创建ClickHouse集群(普通模式)后,设置ClickHouse的默认用户“default”和“clickhouse”的密码。 本章节适用于MRS 3.3.0-LTS及后续版本。 “
file :80: "security.kerberos.login.keytab: " 原因分析 在安全集群环境下,Flink需要进行安全认证。当前客户端未进行相关安全认证设置。 Flink整个系统有两种认证方式: 使用kerberos认证:Flink yarn client、Yarn
稳定运行。所以在分配机架之前,需要进行全局的统筹,合理地设置机架。 机架分配策略 物理机架:主机所在的真实的机架。 逻辑机架:在FusionInsight Manager中给主机设置的机架名称。 策略 1:每个逻辑机架包含的主机个数基本一致。 策略 2:主机所设置的逻辑机架要尽量符合其所在的物理机架。
class); } } 您可以在Spark客户端对spark.kryo.registrationRequired参数进行配置,设置是否需要Kryo注册序列化。 当参数设置为true时,如果工程中存在未被序列化的类,则会抛出异常。如果设置为false(默认值),Kryo会自动
长超出了session.timeout.ms的设置时长,此时发生rebalance导致本次消费失败,已经消费数据的offset无法正常提交,所以下次重新消费时还是在旧的offset消费数据,从而导致消费数据重复。 解决办法 建议用户在Manager页面调整以下服务参数: request
客户端安装目录/Spark/spark/conf/spark-defaults.conf命令,打开spark-defaults.conf文件,设置“spark.executor.extraClassPath” 取值为“${PWD}/*”。 重新尝试提交任务。 父主题: 使用Spark
规则和建议。 Doris建表规则 在创建Doris表指定分桶buckets时,每个桶的数据大小应保持在100MB~3GB之间,单分区中最大分桶数量不超过5000。 表数据超过5亿条以上必须设置分区分桶策略。 表的分桶列不要设置太多,一般情况下设置1或2个列即可,同时需要兼顾数据分布均匀和查询吞吐均衡。
默认只支持timestamp '*' 或者data '*'的格式,如果使用之前的语法插入数据表,会得到NULL值。 回答 在Spark客户端中执行以下命令设置“spark.sql.convert.special.datetime”参数即可兼容之前的语法。 set spark.sql.convert.special