检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
datasource.write.recordkey.field产生主键和分区方式。 说明: 写入设置KeyGenerator与表保存的参数值不一致时将提示需要保持一致。 org.apache.hudi.keygen.ComplexKeyGenerator 父主题: Hudi常见配置参数
DATA_HOME}/om-server/tomcat/webapps/web/WEB-INF/classes/config”。 根据界面提示输入用户的密码。密码将加密保存在配置文件中。 Please input sftp/ftp server password: 显示如下结果,
用户密码为创建集群时用户自定义的密码。 如果集群开启Kerberos认证,执行如下命令进入客户端安装目录并设置环境变量,再认证用户并按照提示输入密码,该密码请向管理员获取。 cd 客户端安装目录 source bigdata_env kinit hdfs 如果集群未开启Kerb
执行如下命令修改default或clickhouse用户密码: ./change_password.sh 如下所示:以clickhouse用户为例,按照提示输入clickhouse和密码,等待密码修改完成。 密码复杂度要求: 密码长度限制是8~64位。 至少包含一个小写字母、一个大写字母、一个
登录Ranger管理页面。 选择“Settings > Users/Groups/Roles > Roles > Add New Role”。 根据界面提示填写Role的名称与描述信息。 添加Role内需要包含的用户、用户组、子Role信息。 在“Users”区域,选择系统中已创建的用户,然后单击“Add
总共为600MB。而Kafka中定义了接收数据的阈值大小为500MB。那么此时回写数据已超出阈值。此时,会出现上述错误。 图1 应用场景 解决措施: 方式一:推荐优化Spark Streaming应用程序中定义的批次时间,降低批次时间,可避免超过kafka定义的阈值。一般建议以5-10秒/次为宜。
总共为600MB。而Kafka中定义了接收数据的阈值大小为500MB。那么此时回写数据已超出阈值。此时,会出现上述错误。 图1 应用场景 解决措施: 方式一:推荐优化Spark Streaming应用程序中定义的批次时间,降低批次时间,可避免超过Kafka定义的阈值。一般建议以5-10秒/次为宜。
192.168.147.231:2181,192.168.147.228:2181,192.168.147.227:2181/kafka 解决办法 属于命令操作有误,具体细节请参考Kafka Shell命令章节。 父主题: 使用Kafka
$LD_LIBRARY_PATH 查看系统库环境变量里是否加载了非系统的openssl相关的库。如果是,请修改为系统的openssl相关的库。 如果仍旧无法解决,请联系支持人员。 父主题: 集群管理类
云数据迁移(Cloud Data Migration,简称CDM),是一种高效、易用的数据集成服务。CDM围绕大数据迁移上云和智能数据湖解决方案,提供了简单易用的迁移能力和多种数据源到数据湖的集成能力,降低了客户数据源迁移和集成的复杂性,有效的提高数据迁移和集成的效率,可参考H
修改后参数值例如:“10.1.1.1:9820”和“10.1.1.2:9820”。 保存配置并在概览页面选择“更多 > 重启服务”,重启Yarn服务。 界面提示“操作成功。”,单击“完成”,Yarn服务启动成功。 登录另外一个集群,重复以上操作。 父主题: HBase运维管理
件包生成后根据浏览器提示下载客户端到本地并解压。 MRS 3.3.0及之后版本,登录FusionInsight Manager页面,在“主页”右上方单击“下载客户端”,“选择客户端类型”设置为“仅配置文件”,单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。
总共为600MB。而Kafka中定义了接收数据的阈值大小为500MB。那么此时回写数据已超出阈值。此时,会出现上述错误。 图1 应用场景 解决措施: 方式一:推荐优化Spark Streaming应用程序中定义的批次时间,降低批次时间,可避免超过Kafka定义的阈值。一般建议以5-10秒/次为宜。
享受着包周期的优惠。 您只需要打开MRS服务页面,通过界面操作便可扩容出您需要的节点数。整个扩容过程无需后台人工介入,只需几分钟,即可完美解决您遇到的日益上涨的业务数据压力。 缩容集群 用户可以根据业务需求量,通过简单的缩减Core节点或者Task节点,对集群进行缩容,以使MRS
conf > OK”,从而完成资源目录的设置,如“图7”所示。 图7 设置工程资源目录 设置IntelliJ IDEA的文本文件编码格式,解决乱码显示问题。 在IntelliJ IDEA的菜单栏中,选择“File > Settings”。 在弹出的“Settings”窗口左边导航上选择“Editor
Project会话框中选择样例工程文件夹“mapreduce-example-security”,单击“OK”。 设置IntelliJ IDEA的文本文件编码格式,解决乱码显示问题。 在IntelliJ IDEA的菜单栏中,选择“File> Settings”。 在弹出“Settings”窗口左边导航上选择“Editor
repository”参数,依次单击“Apply > OK”。 图7 选择本地Maven安装目录 设置IntelliJ IDEA的文本文件编码格式,解决乱码显示问题。 在IntelliJ IDEA的菜单栏中,选择“File > Settings” 弹出“Settings”窗口。 在左边导航上选择“Editor
有两个不同的进程在进行更新,一个进程写入正确的Principal而另一个却写入了错误的Principal,以至于程序时而正常,时而异常。 解决办法 修改Jaas文件,确保使用的Principal在Keytab文件中存在。 父主题: 使用Kafka
如以上文件,在旧集群是17.9/8MB = 3个block,在新集群17.9/128M = 1个block,因此实际在磁盘的物理大小因分割而导致校验失败。 解决办法 distcp时,增加-pb参数。该参数作用为distcp时候保留block大小,确保新集群写入文件blocksize和老集群一致。 图2
当用户正在查看即将被回收的Spark应用时,可能会出现找不到“temp_shuffle”文件的错误,从而导致当前页面无法访问。 处理步骤 如果遇到上述问题,可参考以下两种方法解决。 重新访问这个Spark应用的HistoryServer页面,即可查看到正确的页面信息。 如果用户场景需要同时访问50个以上的Spark应用时,需要调大“spark