检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
INIT:物化视图首次被创建,没有实体数据 SUSPEND:挂起状态,不能改写,不能刷新 State:物化视图有效期 Stale:物化视图过期 Valid:物化视图未过期,正常状态 SyncStatus:物化视图缓存是否同步 SHOW MATERIALIZED VIEWS FROM tpcds; hetuengine:tpcds_2gb>
存不足的错误而失败。 如果在创建表期间将SORT_SCOPE定义为GLOBAL_SORT,则可以指定在对数据进行排序时要使用的分区数。如果未配置或配置小于1,则将使用map任务的数量作为reduce任务的数量。 建议每个reduce任务处理512MB - 1GB数据。 OPTIO
例重启时无法提供服务。 服务参数配置如果使用旧的存储目录,需要更新为新目录。 前提条件 在各个数据节点准备并安装好新磁盘,并格式化磁盘。 已安装好Kafka客户端。 更改Broker单个实例的存储目录时,保持活动的Broker实例数必须大于创建主题时指定的备份数。 操作步骤 更改Kafka角色的存储目录
单击待更换磁盘的“节点名称”进入弹性云服务器管理控制台,单击“关机”。 联系华为云支持人员在后台更换磁盘。 在弹性云服务器管理控制台,单击“开机”,将已更换磁盘的节点开机。 初始化Linux数据盘。 具体步骤可参见初始化数据盘对新磁盘进行初始化操作。 执行lsblk命令,查看新增磁盘分区信息。
dir”参数设置为当前kerberos用户的目录(如“/user/admin/hbase-staging”),或者为客户端(kerberos用户)提供已配置的目录所必须的rwx权限。 重试ImportTsv操作。 父主题: HBase故障排除
例重启时无法提供服务。 服务参数配置如果使用旧的存储目录,需要更新为新目录。 前提条件 在各个数据节点准备并安装好新磁盘,并格式化磁盘。 已安装好Kafka客户端。 更改Broker单个实例的存储目录时,保持活动的Broker实例数必须大于创建主题时指定的备份数。 操作步骤 更改Kafka角色的存储目录
slot数量:不填默认是1; 内存(MB):输入值最小为512。 单击“保存”保存配置,单击“提交”提交作业。 返回作业管理页面,可以查看到已创建的作业名称、类型、状态、作业种类和描述等信息。 作业创建完成后,可在对应作业的“操作”列对作业进行启动、开发、停止、编辑、删除、查看作业
dir”参数设置为当前kerberos用户的目录(如“/user/admin/hbase-staging”),或者为客户端(kerberos用户)提供已配置的目录所必需的rwx权限。 重试ImportTsv操作。 父主题: HBase故障排除
使用Spark-Beeline工具创建Spark和HBase表table1、table2,并通过HBase插入数据。 确保JDBCServer已启动。然后在Spark2x客户端,使用Spark-Beeline工具执行如下操作。 使用Spark-Beeline工具创建Spark表table1。
nodes”,其中xx为当前集群节点个数。 参考根据集群节点数优化Manager配置,对当前集群配置进行优化。 配置完成后等待1小时后,查看告警列表中,该告警是否已清除。 是,处理完毕。 否,执行7。 收集故障信息。 在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。
否,执行5。 spoolDir的监控目录为用户自定义配置文件properties.properties中.spoolDir的参数值。若监控目录文件已传输完毕,则该监控目录下的所有文件以.COMPLETED后缀结尾。 本地打开用户自定义配置文件properties.properties,搜索配置文件中是否有“org
用户通过Loader界面进行数据导出作业,导出流程如图1所示。 图1 导出流程示意 用户也可以通过Shell脚本来更新与运行Loader作业。该方式需要对已安装的Loader客户端进行配置。 父主题: 数据导出
(该用户需要具有操作HDFS的权限,首次认证需要修改密码) 执行以下命令创建“/tmp/input”目录。 hdfs dfs -mkdir /tmp/input 执行以下命令将已准备好的文件上传至HDFS客户端的“/tmp/input”目录下。 hdfs dfs -put local_filepath/input_data1
json_array_get(json_array, index) → json 该函数的语义已被破坏。如果提取的元素是字符串,它将被转换为未正确使用引号括起来的无效JSON值(值不会被括在引号中,任何内部引号不会被转义)。建议不要使用该函数。无法在不影响现有用法的情况下修正该函数,可能会在将来的版本中删除该函数。
存不足的错误而失败。 如果在创建表期间将SORT_SCOPE定义为GLOBAL_SORT,则可以指定在对数据进行排序时要使用的分区数。如果未配置或配置小于1,则将使用map任务的数量作为reduce任务的数量。 建议每个reduce任务处理512MB - 1GB数据。 OPTIO
列表的请求。 stopContainers(StopContainersRequest request) AM通过此接口请求NM停止一系列已分配的Containers。 样例代码 YARN作业提交的样例代码详细可以参考MapReduce开发指南中的MapReduce访问多组件样例代码,实现建立一个MapReduce
服务 > Kafka”,在“KafkaManager WebUI”右侧,单击URL链接,访问KafkaUI的页面。单击“Alarms”,查看已配置的积压告警的阈值信息是否合理。 是,执行6。 否,请在该页面重新配置积压告警的阈值信息并保存,执行5。 等待5分钟,查看当前告警是否清除。
YARN组件运行中的任务数。 取值范围为[0~2147483646]。 YARNContainerAllocated 整型 YARN组件中已分配的container个数。 取值范围为[0~2147483646]。 YARNContainerPending 整型 YARN组件挂起的container个数。
用户通过Loader界面进行数据导入作业,导入流程如图1所示。 图1 导入流程示意 用户也可以通过shell脚本来更新与运行Loader作业,该方式需要对已安装的Loader客户端进行配置。 父主题: 数据导入
列表的请求。 stopContainers(StopContainersRequest request) AM通过此接口请求NM停止一系列已分配的Containers。 样例代码 YARN作业提交的样例代码详细可以参考MapReduce开发指南中的MapReduce访问多组件样例代码,实现建立一个MapReduce