检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
版本元数据查询 展示MRS版本列表 查询MRS集群版本可用的规格 父主题: API V2
星期,参数值为0~6,0表示星期日。 使用限制 只支持同类型磁盘之间的数据移动,例如SSD->SSD,DISK->DISK等。 执行该特性会占用涉及节点的磁盘IO资源、网络带宽资源,请尽量在业务不繁忙的时候使用。 参数dfs.disk.balancer.top.nodes.number指定Top
ratio RegionServer队列普通请求最大占比,当队列中普通请求总大小超过此阈值时,会直接丢弃此请求。 调整至0.8左右,限制外部请求占用队列比例,保护内部请求。 观察应用侧业务运行日志是否存在“XXX is too large for table XXX”或“Client scan
集群管理 集群生命周期管理 集群在线扩缩容 创建Task节点 自动弹性伸缩 节点隔离 升级Master节点规格 节点标签管理 父主题: 产品功能
Once)。 SavePoint Savepoint是指允许用户在持久化存储中保存某个checkpoint,以便用户可以暂停自己的任务进行升级。升级完后将任务状态设置为savepoint存储的状态开始恢复运行,保证数据处理的延续性。 父主题: Flink应用开发概述
关闭日志文件路径。 /var/log/coredump/clickhouse-*.core.gz ClickHouse进程异常崩溃后生成的内存转储文件压缩包。 该日志仅适用于MRS 3.3.0及之后版本。 数据迁移日志 /var/log/Bigdata/clickhouse/mi
夹下获取。 curator-client-2.12.0.jar curator-framework-2.12.0.jar Stream SQL Join样例工程(Java) flink-dist_2.11*.jar 在Flink的客户端或者服务端安装路径的lib目录下获取。 kafka-clients-*
enabled参数配置为true """ from py4j.java_gateway import java_import from pyspark.sql import SparkSession # 创建SparkSession spark = SparkSession\ .builder\
enabled参数配置为true """ from py4j.java_gateway import java_import from pyspark.sql import SparkSession # 创建SparkSession spark = SparkSession\ .builder\
管理MRS集群客户端 服务端配置过期后更新MRS集群客户端 查看已安装的MRS集群客户端 批量升级MRS集群客户端 父主题: 管理MRS集群
TABLE TO user; 更多ClickHouse授权操作及详细权限说明可参考https://clickhouse.tech/docs/zh/sql-reference/statements/grant/。 执行如下命令,退出客户端。 quit; 父主题: ClickHouse用户权限管理
Doris对接SpringBoot运行结果 在浏览器中访问链接“http://样例运行节点IP地址:8080/doris/example/executesql”,IDEA正常打印日志,请求返回如下图所示: 图3 返回样例运行信息 父主题: 调测Doris应用
enabled参数配置为true """ from py4j.java_gateway import java_import from pyspark.sql import SparkSession # 创建SparkSession spark = SparkSession\ .builder\
enabled参数配置为true """ from py4j.java_gateway import java_import from pyspark.sql import SparkSession # 创建SparkSession spark = SparkSession\ .builder\
enabled参数配置为true """ from py4j.java_gateway import java_import from pyspark.sql import SparkSession # 创建SparkSession spark = SparkSession\ .builder\
enabled参数配置为true """ from py4j.java_gateway import java_import from pyspark.sql import SparkSession # 创建SparkSession spark = SparkSession\ .builder\
enabled参数配置为true """ from py4j.java_gateway import java_import from pyspark.sql import SparkSession # 创建SparkSession spark = SparkSession\ .builder\
执行以下命令,切换到IoTDB客户端运行脚本所在目录。 cd /opt/client/IoTDB/iotdb/sbin 参考10登录IoTDB客户端。执行SQL查询数据并与1中数据进行对比。 查看导入的数据与1中的数据是否一致,如果一致则表示导入成功。 例如,执行以下命令查看导入的数据: SELECT
Hive是建立在Hadoop上的数据仓库框架,提供大数据平台批处理计算能力,能够对结构化/半结构化数据进行批量分析汇总完成数据计算。提供类似SQL的Hive Query Language语言操作结构化数据,其基本原理是将HQL语言自动转换成MapReduce任务,从而完成对Hadoop集群中存储的海量数据进行查询和分析。
使用CDL CDL数据集成概述 CDL用户权限管理 快速使用CDL创建数据同步作业 创建CDL作业前准备 创建CDL作业 CDL作业数据DDL变更说明 CDL日志介绍 CDL常见问题 CDL故障排除