检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
选择主DBServer实例,记录IP地址。 以root用户登录上述IP所在主机,执行ifconfig命令查看DBService的浮动IP在该节点是否存在,用户密码为安装前用户自定义,请咨询系统管理员。 是,执行5。 否,执行9。 执行ping 浮动IP地址命令检查DBService的浮动IP的状态,是否能ping通。
操作步骤:登录FusionInsight Manager,选择“集群 > 服务 > DBService > 更多 > 重启服务”,输入当前登录的用户密码确认身份,单击“确定”。注意,不要勾选“同时重启上层服务”,单击“确定”完成重启。 服务在重启过程中将不可用。另外,依赖该服务的上层服务也将受到影响。
JDK,请确保Eclipse中的JDK配置为Oracle JDK。 不同的Eclipse不要使用相同的workspace和相同路径下的示例工程。 网络 确保客户端与Hive服务主机在网络上互通。 父主题: 准备Hive应用开发环境
property_value)] AS query 限制 仅Hive数据源的Catalog支持视图的列描述。 在HetuEngine中创建的视图,视图的定义以编码方式存储在数据源里。在数据源可以查询到该视图,但无法对该视图执行操作。 视图是只读的,不可对它执行LOAD、INSERT操作。 视图可以包含ORDER
connectorInstanceCheck.log CDLConnector的实例检查日志。 ModifyDBPasswd.log 重置服务数据库密码的日志。 ranger-cdl-plugin-enable.log 服务启用或停用Ranger鉴权的日志。 postinstallDetail
files 设置成功,单击“OK”保存设置。 图25 设置成功 设置IDEA的文本文件编码格式,解决乱码显示问题。 在IDEA首页,选择“File > Settings...”。 图26 选择Settings 编码配置。 在“Settings”页面,展开“Editor”,选择“File Encodings”。
sdk目录,单击“OK”。 图25 Scala SDK files 设置成功,单击“OK”保存设置。 图26 设置成功 设置IDEA的文本文件编码格式,解决乱码显示问题。 在IDEA首页,选择“File > Settings...”。 图27 选择Settings 在“Setting
source bigdata_env source Hudi/component_env kinit 创建的业务用户 新创建的用户首次认证需要修改密码。 普通模式(未开启kerberos认证)集群无需执行kinit命令。 执行spark-shell --master yarn-clien
0之前版本,登录FusionInsight Manager,选择“集群 > 概览 > 更多 > 下载客户端”,“选择客户端类型”设置为“完整客户端”,注意平台类型与待安装客户端节点的节点类型相同(x86为x86_64,ARM为aarch64),单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。
置为受信任的IP。 前提条件 根据安装规划,收集集群内全部节点的管理平面IP、业务平面IP和所有浮动IP。 获取集群内节点的root用户和密码。 配置受信任IP地址访问LDAP 配置OMS LDAP信任的IP地址 登录FusionInsight Manager。 选择“系统 > OMS”,在“服务”选择“oldap
用户”,在用户名为“flinkuser”的操作列选择“更多 > 下载认证凭据”下载认证凭据文件,保存后解压得到该用户的“user.keytab”文件与“krb5.conf”文件。 选择“集群 > 概览 > 更多 > 下载客户端”,“选择客户端类型”设置为“仅配置文件”,单击“确定”,等待客
全部或部分可以缓存在内存中,在多次计算间重用。 RDD的生成: 从HDFS输入创建,或从与Hadoop兼容的其他存储系统中输入创建。 从父RDD转换得到新RDD。 从数据集合转换而来,通过编码实现。 RDD的存储: 用户可以选择不同的存储级别缓存RDD以便重用(RDD有11种存储级别)。
使用Linux环境调测程序,需准备安装集群客户端的Linux节点并获取相关配置文件。 在节点中安装客户端,例如客户端安装目录为“/opt/client”。 客户端机器的时间与集群的时间要保持一致,时间差小于5分钟。 集群的Master节点或者Core节点使用客户端可参考集群内节点使用MRS客户端,MRS集群外客户
查看NameNode和DataNode之间的网络情况。 以root用户登录管理页面上存在且处于故障状态DataNode的业务平面IP节点,用户密码为安装前用户自定义,请咨询系统管理员,执行ping NameNode的IP地址命令以检查DataNode和NameNode之间的网络是否异常。
在节点中安装客户端,例如客户端安装目录为“/opt/hadoopclient”。客户端安装可参考配置Flink应用安全认证。 客户端机器的时间与集群的时间要保持一致,时间差小于5分钟。 集群的Master节点或者Core节点使用客户端可参考集群内节点使用MRS客户端,MRS集群外客户
AvailableZoneV2 参数 参数类型 描述 id String 参数解释: 可用区编码。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 az_code String 参数解释: 可用区编码。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 az_name String
对于部分输出为非可见字符的函数,如BITMAP、HLL类型,输出为\N,即NULL。 目前部分地理信息函数,如ST_Point的输出类型为VARCHAR,但实际输出值为经过编码的二进制字符,当前这些函数会输出乱码。对于地理函数,请使用ST_AsText进行输出。 语法介绍 query_stmt INTO OUTFILE
在Flink任务运行过程中禁止重启HDFS服务或者重启所有DataNode实例,否则可能会导致任务失败,并可能导致应用部分临时数据无法清空。 请确保Jar包和配置文件的用户权限与Flink客户端一致,例如都是omm用户,且权限为755。 MRS 3.2.1及以后版本使用-tm指定taskmanager内存不能小于4096MB。
0之前版本,登录FusionInsight Manager,选择“集群 > 概览 > 更多 > 下载客户端”,“选择客户端类型”设置为“完整客户端”,注意平台类型与待安装客户端节点的节点类型相同(x86为x86_64,ARM为aarch64),单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。
spark.sql.warehouse.location.first配置 单击“保存”,保存配置,然后单击“概览”,选择“更多 > 重启服务”,输入密码,单击“确定”后再次单击“确定”,重启Spark服务。 Spark重启成功后,选择“更多 > 下载客户端”,重新下载并安装Spark客户端