检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
建议在业务前期规划建表时预留将来要使用的字段。如果必须添加或删除字段,及修改字段类型和注释,需在业务低峰期,停止相关表的写入和修改业务后,通过重建表方式实现以上操作: 新建一个表,该表结构和需进行增删改字段的表结构相同。在新建表中增加需要添加的新字段、删除不需要的字段、或修改需改变类型的字段。
ttl,不支持表级TTL以及JTL。 Full outer join到MultiJoin状态不兼容,切换时无法通过快照恢复作业。 FlinkSQL支持MultiJoin算子使用方法 配置Flink作业时,可通过在FlinkServer WebUI的Flink作业开发界面添加自定义参数“table.optimizer
配置使用分布式缓存执行MapReduce任务 配置MapReduce shuffle address 配置MapReduce集群管理员列表 通过Windows系统提交MapReduce任务 配置MapReduce任务日志归档和清理机制 MapReduce性能调优 MapReduce日志介绍
1/monitoring.html#rest-api。 准备运行环境 安装客户端。在节点上安装客户端,如安装到“/opt/client”目录。 REST接口 通过以下命令可跳过REST接口过滤器获取相应的应用信息。 普通模式下,JobHistory仅支持http协议,故在如下命令的url中请使用http协议。
配置MapReduce Job基线 MapReduce Shuffle调优 MapReduce大任务的AM调优 配置MapReduce任务推测执行 通过Slow Start调优MapReduce任务 MapReduce任务commit阶段优化 降低MapReduce客户端运行任务失败率 父主题:
配置MapReduce Job基线 MapReduce Shuffle调优 MapReduce大任务的AM调优 配置MapReduce任务推测执行 通过Slow Start调优MapReduce任务 MapReduce任务commit阶段优化 降低MapReduce客户端运行任务失败率 父主题:
omm-xxx.log”),出现如下异常,The DiskSpace quota of /hbase is exceeded。 解决办法 通过后台使用df -h命令查看数据盘目录空间已满,因此需要删除无用的数据来进行应急恢复。 后续需要扩容节点来解决数据目录空间不足问题。 父主题:
图对应的查询在每次被其他查询引用该视图时都会被执行。 如果视图已经存在,则可选ORREPLACE子句将导致视图被替换,而不会报错。 示例 通过表orders创建一个视图test: CREATE VIEW test (oderkey comment 'orderId',orderstatus
应用开发类 如何准备MRS的数据源? MRS是否支持通过Hive的HBase外表将数据写入到HBase? Hive样例工程中的com.huawei.gaussc10依赖包在哪里下载? MRS集群上层应用开发是否支持Python? OpenTSDB是否支持Python的接口? 如何获取Spark
的数据,导致应用长时间挂起。 解决措施: 如果用户需要在OOM场景下强制将应用退出,那么可以在启动Spark Core应用时,在客户端配置文件“$SPARK_HOME/conf/spark-defaults.conf”中的配置项“spark.driver.extraJavaOptions”中添加如下内容:
没有像场景1中那样设置固定的“zkRoot”或者“id”,导致无法读取历史的offset,如此一来每次提交拓扑都会把历史已经消费过的数据再消费一遍,这时需要通过如下方式手动指定: SpoutConfig spoutConfig = new SpoutConfig(hosts, inputTopicName
ase的命令参数的帮助信息。 注意事项 count命令不支持条件统计,仅支持全表统计。 获取HBase replication指标的命令 通过Shell命令“status”可以获取到所有需要的指标。 查看replication source指标的命令。 hbase(main):019:0>
ase的命令参数的帮助信息。 注意事项 count命令不支持条件统计,仅支持全表统计。 获取HBase replication指标的命令 通过Shell命令“status”可以获取到所有需要的指标。 查看replication source指标的命令。 hbase(main):019:0>
执行以下命令登录HBase客户端并修改表描述: hbase shell alter 'test_table', PRIORITY=>'1' 表优先级可以通过PRIORITY属性进行设置,当PRIORITY值大于等于1时,被认为是高优先级表,建议设置为“1”即可。 创建核心表时可以直接指定PRIORITY属性,例如:
安全策略 > 配置Independent”。 打开或关闭Independent属性,根据提示输入密码,单击“确认”完成身份验证。 身份验证通过后,等待修改OMS配置完成,单击“完成”结束操作。 关闭Independent属性功能后: 已拥有这个属性的业务用户可以在右上角用户名下取
提交Hive任务时如何指定队列? 问题现象 怎样在Hive提交任务的时候指定队列? 处理步骤 在执行语句前通过如下参数设置任务队列,例如,提交任务至队列QueueA。 set mapred.job.queue.name=QueueA; select count(*) from rc;
可能存在JobHistory内存泄露问题,需要安装相应的补丁修复。 处理步骤 适当调大JobHistory进程堆内存。 如果已经调大堆内存,可以通过重启JobHistory实例规避。 父主题: 使用Spark
EXISTS] db_name [PROPERTIES ("key"="value", ...)]; 使用示例 使用具有Doris管理权限的用户通过MySQL客户端连接到Doris。 执行以下命令创建数据库example_db: create database if not exists
ase的命令参数的帮助信息。 注意事项 count命令不支持条件统计,仅支持全表统计。 获取HBase replication指标的命令 通过Shell命令“status”可以获取到所有需要的指标。 查看replication source指标的命令。 hbase(main):019:0>
管理Loader作业 准备MySQL数据库连接的驱动 数据导入 数据导出 作业管理 算子帮助 客户端工具说明 Loader日志介绍 样例:通过Loader将数据从OBS导入HDFS Loader常见问题