检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
问题 当用户设置“blob.storage.directory”为“/home”时,用户没有权限在“/home”下创建“blobStore-UUID”的文件,导致yarn-session启动失败。 回答 建议将"blob.storage.directory"配置选项设置成“/tmp
Topic删除操作时提示“AdminOperationException” 问题背景与现象 在使用Kafka客户端命令设置Topic ACL权限时,发现Topic无法被设置。 kafka-topics.sh --delete --topic test4 --zookeeper 10.5
BE安装节点有多个网卡IP,没有正确设置“priority_network”参数值导致BE启动时匹配了错误的IP地址。 处理步骤 登录FusionInsight Manager,选择“集群 > 服务 > Doris > 配置”。 搜索“priority_network”参数,并正确设置BE的该参数值,
登录Manager,选择“系统设置 > 角色管理 > 添加角色”。 在“角色名称”和“描述”输入角色名字与描述。 设置角色“权限”请参见表1。 Yarn权限: “Cluster Admin Operations”:Yarn管理员权限。 “Scheduler Queue”:队列资源管理。 表1 设置角色 任务场景
Encodings”,在“Project Encoding”和“Global Encoding”区域,设置参数值为“UTF-8”,单击“Apply”后,单击“OK”,如图1所示。 图1 设置IntelliJ IDEA的编码格式 设置工程JDK。 在IntelliJ IDEA的菜单栏中,选择“File > S
r实例,如果TimelineServer实例故障或未启动,需设置hive自定义参数yarn-site.xml中yarn.timeline-service.enabled=false,否则hive任务会执行失败。 参数设置完成后,Hive Queries界面即可展示数据,但无法展示历史数据,展示效果如下:
r实例,如果TimelineServer实例故障或未启动,需设置hive自定义参数yarn-site.xml中yarn.timeline-service.enabled=false,否则hive任务会执行失败。 参数设置完成后,Hive Queries界面即可展示数据,但无法展示历史数据,展示效果如下:
为什么提交Spark Streaming应用超过token有效期,应用失败 问题 修改kerberos的票据和HDFS token过期时间为5分钟,设置“dfs.namenode.delegation.token.renew-interval”小于60秒,提交Spark Streaming
如何在Spark命令中指定参数值 问题 如果用户不希望在界面上或配置文件设置参数值,如何在Spark命令中指定参数值? 回答 Spark的配置项,不仅可以在配置文件中设置,也可以在命令中指定参数值。 在Spark客户端,应用执行命令添加如下内容设置参数值,命令执行完成后立即生效。在--conf后添加参数名称及其参数值,例如:
Hudi表作为Source表时建议设置限流 Hudi表作为Source表,防止上限超过流量峰值,导致作业出现异常带来不稳定因素,因此建议设置限流,限流上限应该为业务上线压测的峰值。 使用时需添加如下参数: 'read.rate.limit' = '1000' 设置execution.checkpointing
files.minimum”设置值时日志文件才会被归档。周期设置为“0”或“-1”时归档功能禁用。 该参数适用于MRS 3.x版本。 -1 yarn.log-aggregation.retain-seconds 设置Mapreduce任务日志在HDFS上的保留时间。设置为“-1”时日志文件永久保存。
archive.files.minimum”设置值时日志文件才会被归档。周期设置为“0”或“-1”时归档功能禁用。 -1 yarn.log-aggregation.retain-seconds 设置Mapreduce任务日志在HDFS上的保留时间。设置为“-1”时日志文件永久保存。 1296000
scala) (kafka.admin.TopicCommand$) 可能原因 Kafka服务处于停止状态。 Kafka服务当前可用Broker小于设置的replication-factor。 客户端命令中ZooKeeper地址参数配置错误。 原因分析 使用客户端命令,打印replication
配置Spark数据传输加密 操作场景 本章节指导用户设置Spark安全通道加密,以增强安全性。 该章节仅适用于MRS 3.x及之后版本。 配置Spark数据传输加密 参数修改入口:登录Manager页面,选择“集群 > 服务 > Spark > 配置”,展开“全部配置”页签,在搜索框中输入相关参数名称。
watch=true”来打开动态设置日志级别的功能。进程启动后,就可以通过修改进程对应的log4j配置文件,来调整日志打印级别。 目前支持动态设置日志级别功能的有:Driver日志、Executor日志、AM日志、JobHistory日志、JDBCServer日志。 允许设置的日志级别是:FA
watch=true”来打开动态设置日志级别的功能。进程启动后,就可以通过修改进程对应的log4j配置文件,来调整日志打印级别。 目前支持动态设置日志级别功能的有:Driver日志、Executor日志、AM日志、JobHistory日志、JDBCServer日志。 允许设置的日志级别是:FA
配置资源权限,请参见表1。 表1 设置角色 任务场景 角色授权操作 设置HDFS管理员权限 在“配置资源权限”的表格中选择“待操作集群的名称 > HDFS”,勾选“集群管理操作权限 ”。 说明: 设置HDFS管理员权限需要重启HDFS服务才可生效。 设置用户执行HDFS检查和HDFS修复的权限
P”时此参数生效。 单击“确定”,设置完成。 选择转储模式为SFTP,当SFTP服务公钥为空时,先进行安全风险提示,确定安全风险后再保存配置。 配置MRS集群监控指标数据转储(MRS 2.x及之前版本) 在MRS Manager,单击“系统设置”。 在“配置”区域“监控和告警配置”下,单击“监控指标转储配置”。
的列后角色将拥有该列的权限,列权限设置完成。 否,修改已有HBase角色的列权限,表格将显示已单独设置权限的列,执行5。 角色新增列权限,在“资源名称”的输入框输入列名称并设置列的权限。角色修改列权限,可以在“资源名称”的输入框输入列名称并设置列权限,也可以在表格中直接修改列的权
为什么提交Spark Streaming应用超过token有效期,应用失败 问题 修改kerberos的票据和HDFS token过期时间为5分钟,设置“dfs.namenode.delegation.token.renew-interval”小于60秒,提交Spark Streaming