检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Flume组件版本号/conf/flume-env.sh 在“-XX:+UseCMSCompactAtFullCollection”后面,增加以下内容: -Djava.security.krb5.conf=Flume客户端安装目录/fusioninsight-flume-1.9.0/conf/kdc
Flume的拦截器(Interceptor)支持在数据传输过程中修改或丢弃传输的基本单元Event。用户可以通过在配置中指定Flume内建拦截器的类名列表,也可以开发自定义的拦截器来实现Event的修改或丢弃。Flume内建支持的拦截器如下表所示,本章节会选取一个较为复杂的作为示例。其余的用户可以根据需要自行配置使用。
Spark用户权限管理 SparkSQL权限介绍 创建SparkSQL角色 配置Spark表、列和数据库的用户权限 配置SparkSQL业务用户权限 配置Spark2x Web UI ACL Spark客户端和服务端权限参数配置说明 父主题: 使用Spark2x(MRS 3.x及之后版本)
Oozie常见问题 Oozie定时任务没有准时运行如何处理 HDFS上更新了Oozie的share lib目录但没有生效 Oozie作业执行失败常用排查手段 父主题: 使用Oozie
Doirs故障排除 多副本场景下,运行在副本丢失损坏的BE节点的查询任务报错 FE服务故障如何恢复 Broker Load导入任务的数据量超过阈值 父主题: 使用Doris
云服务价格详情。 如何选择可用区? 是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。 如何获取区域终端节点?
参数默认值为4G。若参数值调整后,仍偶现告警,可按0.5倍速率调大。若告警次数比较频繁,可以按1倍速率调大。多业务量、高并发的情况可以考虑增加实例。 重启所有的JDBCServer2x实例。 重启实例期间实例不可用,当前实例节点的任务会执行失败。 等待10分钟,观察界面告警是否清除。
击确定则完成UDF创建,超时后单击确定则创建UDF失败并弹出错误提示:本地UDF文件路径有误。 在UDF列表中,可查看当前应用内所有的UDF信息。可在对应UDF信息的“操作”列编辑或删除UDF信息(只能删除未被使用的UDF项)。 (可选)如果需要立即运行或开发作业,可在“作业管理
SDK”为“SDKs”中添加的JDK。 图6 修改“Module SDK” 单击“Apply”,单击“OK”。 配置Maven。 参考配置华为开源镜像仓章节描述,增加开源镜像仓地址等配置信息到本地Maven的“setting.xml”配置文件。 修改完成后,在IntelliJ IDEA选择“File >
为4G,可根据如下原则进行调整:若偶现告警,可以按0.5倍速率调大。若告警次数比较频繁,可以按1倍速率调大。多业务量、高并发的情况可以考虑增加实例。 重启所有的JDBCServer2x实例。 重启实例期间实例不可用,当前实例节点的任务会执行失败。 等待10分钟,观察界面告警是否清除。
WebUI界面,在数据同步任务作业列表界面选择该作业所在行的“更多 > 停止”,等待任务停止完成后选择“更多 > 编辑”。 配置“Hudi表属性配置”的“Table Primarykey Mapping”参数,并单击“保存”,该参数介绍请参见表8。 在数据同步任务作业列表界面选择该任务所在行的“启动”,重新启动该任务。
安装集群系统。 DistCp使用Mapreduce来影响数据的分布、异常处理及恢复和报告,此工具会把指定列表中包含的多个源文件和目录输入不同的Map任务,每个Map任务将复制列表中指定文件对应分区的数据。 使用DistCp在两个集群的HDFS间进行数据复制,集群双方需要分别配置互信(同一个FusionInsight
SDK”为“SDKs”中添加的JDK。 图6 修改“Module SDK” 单击“Apply”,单击“OK”。 配置Maven。 参考配置华为开源镜像仓章节描述,增加开源镜像仓地址等配置信息到本地Maven的“setting.xml”配置文件。 修改完成后,在IntelliJ IDEA选择“File >
ager修改密码)。 登录Manager,下载认证凭据。 登录集群的Manager界面,选择“系统 > 权限 > 用户”,在已增加用户所在行的“操作”列,选择“更多 > 下载认证凭据”。 图1 下载认证凭据 将下载的认证凭据压缩包解压缩,并将得到的文件复制到客户端节点中,例如客户
zkNamespace + ";"); val url = sb.toString() 加载Hive JDBC驱动。获取JDBC连接,执行HQL,输出查询的列名和结果到控制台,关闭JDBC连接。 连接字符串中的“zk.quorum”也可以使用配置文件中的配置项“spark.deploy.zookeeper
onData加载的数据可以基于加载时间进行删除,也可以撤销特定的数据加载操作。 CarbonData文件格式是HDFS中的列式存储格式。该格式具有许多新型列存储文件的特性。例如,分割表,压缩模式等。CarbonData具有以下独有的特点: 伴随索引的数据存储:由于在查询中设置了过
be found for logger” 运行Manager应用报错“illegal character in path at index” 如何通过curl命令访问Manager REST API 父主题: Manager管理开发指南
在Manager角色界面创建一个角色,例如“hive_hbase_submit”,并授予提交任务到Yarn的队列的权限。 在“配置资源权限”的表格中选择“待操作集群的名称 > Yarn > 调度队列 > root”,勾选队列“default”的“提交”,单击“确定”保存。 在Manager用户界面创建一个“
在Manager角色界面创建一个角色,例如“hive_hbase_submit”,并授予提交任务到Yarn的队列的权限。 在“配置资源权限”的表格中选择“待操作集群的名称 > Yarn > 调度队列 > root”,勾选队列“default”的“提交”,单击“确定”保存。 在Manager用户界面创建一个“
久保留。 设置为0或正数时,表示HDFS上面的Container聚合日志将保留这段时间,超时将被删除。 说明: 当时间设置太短时,有可能会增加NameNode的负担,建议根据实际情况设置一个合理的时间值。 1296000 yarn.log-aggregation.retain-c