检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Manager界面选择“系统设置 > 用户管理”,在用户名中选择flinkuser,单击操作中下载认证凭据文件,保存后解压得到用户的keytab文件与krb5.conf文件,并将krb5.conf文件拷贝到客户端机器的/etc目录下。用于在样例工程中进行安全认证,具体使用请参考准备Flink应用安全认证。
安装集群客户端的Linux节点并获取相关配置文件。 在节点中安装客户端,例如客户端安装目录为“/opt/client”。 客户端机器的时间与集群的时间要保持一致,时间差小于5分钟。 集群的Master节点或者Core节点使用客户端可参考集群内节点使用MRS客户端,MRS集群外客户
安装集群客户端的Linux节点并获取相关配置文件。 在节点中安装客户端,例如客户端安装目录为“/opt/client”。 客户端机器的时间与集群的时间要保持一致,时间差小于5分钟。 集群的Master节点或者Core节点使用客户端可参考集群内节点使用MRS客户端,MRS集群外客户
t,进入HA证书目录。 执行命令openssl x509 -noout -text -in server.crt查看HA用户证书的生效时间与失效时间。 根据需要,选择业务空闲期,执行6~7更新HA证书。 执行命令cd ${BIGDATA_HOME}/FusionInsight_F
t_Porter_*/install/FusionInsight-Flume-*/flume/conf 执行以下命令查看用户证书的生效时间与失效时间,查看目前时间是否在有效期内。 openssl x509 -noout -text -in ms_sChat.crt 是,执行9。 否,执行5。
driver.extraJavaOptions”、“spark.driver.extraLibraryPath”。 不添加表1中配置项时,使用方式与原有方式一致,程序可正常执行,只是在不同模式下需切换配置。 配置参数 参数入口: 在Manager系统中,选择“集群 > 待操作集群的名称 >
driver.extraJavaOptions”、“spark.driver.extraLibraryPath”。 不添加表1中配置项时,使用方式与原有方式一致,程序可正常执行,只是在不同模式下需切换配置。 配置参数 参数入口: 在Manager系统中,选择“集群 > 服务 > Spark2x
描述 向表中插入新的数据行。 如果指定了列名列表,那么这些列名列表必须与query语句产生列表名完全匹配。表中不在列名列表中的每一列,其值会设置为null。 如果没有指定列名列表,则query语句产生的列必须与将要插入的列完全匹配。 使用insert into时,会往表中追加数据,而使用insert
设置Hadoop中各模块的RPC通道是否加密。通道包括: 客户端访问HDFS的RPC通道。 HDFS中各模块间的RPC通道,如DataNode与NameNode间的RPC通道。 客户端访问Yarn的RPC通道 NodeManager和ResourceManager间的RPC通道。 S
Porter_*/install/FusionInsight-Flume-*/flume/conf 执行以下命令查看HA用户证书的生效时间与失效时间,查看目前时间是否在有效期内。 openssl x509 -noout -text -in flume_sChat.crt 是,执行9。
@volatile private var endTime: Long = 0L @volatile private var numRecs: Long = 0L override def onQueryStarted(event: StreamingQueryListener
@volatile private var endTime: Long = 0L @volatile private var numRecs: Long = 0L override def onQueryStarted(event: StreamingQueryListener
ing通其他ZooKeeper实例所在节点的主机名。 是,执行15。 否,执行12。 修改“/etc/hosts”中的IP信息,添加主机名与IP地址的对应关系。 再次执行ping命令,查看能否在该ZooKeeper实例节点ping通其他ZooKeeper实例节点的主机名。 是,执行14。
HDFS读文件失败报错“No common protection layer” 问题背景与现象 shell客户端或者其他客户端操作HDFS失败,报“No common protection layer between client and server”。 在集群外的机器,执行任意hadoop命令,如hadoop
当选择保留作业日志到OBS或HDFS时,系统在作业执行结束后,将日志压缩并存储到对应路径。因此,此类作业运行结束后,作业状态仍然为“运行中”,需等日志存储成功后,状态变更为“已完成”。日志存储花费时间依赖于日志大小,需要数分钟以上。 父主题: 提交MRS作业
hdfs://192.168.6.159:9820/tmp 其中,192.168.6.159是集群A中主NameNode的IP地址,9820是客户端与NameNode通信的默认端口。 执行以下命令,在集群A中的目录“/tmp”创建一个文件。 hdfs dfs -touchz hdfs://192
source bigdata_env kinit 组件业务用户 kinit一次票据时效24小时。24小时后再次运行样例,需要重新kinit。 与HTTP服务访问相比,以HTTPS方式访问Mapreduce时,由于使用了SSL安全加密,需要确保Curl命令所支持的SSL协议在集群中已添
res数据库进行说明。 约束与限制 当外置元数据到MySQL后,Hive仅表名、字段名、表描述支持中文,其余暂不支持。 适用于MRS 3.x及以后版本。 步骤一:安装数据库并上传驱动包 安装开源MySQL或Postgres数据库。 数据库安装节点需与集群处于同一网段,能互相访问。
管理Hive元数据表 单击左侧列表中的可在数据库中根据上传的文件创建一个新表,也可手动创建一个新表。 Hue界面主要用于文件、表等数据的查看与分析,禁止通过Hue界面对操作对象进行删除等高危管理操作。如需操作,建议在确认对业务没有影响后通过各组件的相应操作方法进行处理,例如使用HD
7运行时,使用yarn-client模式向服务端提交Spark任务。 Oracle JDK需进行安全加固,具体操作如下。 到Oracle官方网站获取与JDK版本对应的JCE(Java Cryptography Extension)文件。JCE文件解压后包含“local_policy.jar”和“US_export_policy