检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
SELECT format_number(1000000); -- '1M' Data Size parse_presto_data_size函数支持以下单位: 单位 描述 值 B Bytes 1 kB Kilobytes 1024 MB Megabytes 10242 GB Gigabytes
Kafka:Source、Sink HDFS:Source、Sink - 数据连接 选择数据连接。 - Topic 读取的Kafka的topic,支持从多个Kakfa topic中读取,topic之间使用英文分隔符进行分隔。 “映射表类型”选择“Kafka”时存在此参数。 - 文件路径 要传输的HDFS目录或单个文件路径。
不涉及 support_physical_az_group Boolean 参数解释: 支持的物理可用区分组。 约束限制: 不涉及 取值范围: True:支持物理可用区分组。 False:不支持物理可用区分组。 默认取值: 不涉及 表4 AvailableZoneV2 参数 参数类型
开发流程中各阶段的说明如图1和表1所示。 图1 Spark应用程序开发流程 表1 Spark应用开发的流程说明 阶段 说明 参考文档 准备开发环境 Spark的应用程序支持使用Scala、Java、Python三种语言进行开发。推荐使用IDEA工具,请根据指导完成不同语言的开发环境配置。Spark的运行环境即
$LD_LIBRARY_PATH 查看系统库环境变量里是否加载了非系统的openssl相关的库。如果是,请修改为系统的openssl相关的库。 如果仍旧无法解决,请联系支持人员。 父主题: 集群管理类
Kafka:Source、Sink HDFS:Source、Sink - 数据连接 选择数据连接。 - Topic 读取的Kafka的topic,支持从多个Kakfa topic中读取,topic之间使用英文分隔符进行分隔。 “映射表类型”选择“Kafka”时存在此参数。 - 文件路径 要传输的HDFS目录或单个文件路径。
/srv/BigData/hadoop/data1/flumeserver/checkpoint transactionCapacity 事务大小:即当前channel支持事务处理的事件个数。建议和Source的batchSize设置为同样大小,不能小于batchSize。 61200 hdfs.path 写入HDFS的目录,此参数不能为空。
/srv/BigData/hadoop/data1/flumeserver/checkpoint transactionCapacity 事务大小:即当前channel支持事务处理的事件个数。建议和Source的batchSize设置为同样大小,不能小于batchSize。 61200 hdfs.path 写入HDFS的目录,此参数不能为空。
日志文件:clickhouse-springboot-example.log。 运行clickhouse-springboot样例后,控制台显示部分运行结果如下: . ____ _ __ _ _ /\\ / ___'_ __ _ _(_)_
服务 > Spark2x > 配置”。 单击“全部配置”,并搜索“SPARK_DRIVER_MEMORY”。 修改参数值适当增加内存大小。仅支持整数值,且需要输入单位M或者G。例如输入512M。 参考信息 DRIVER内存不足时,查询操作可能遇到以下错误提示信息: 2018-02-11
否,table和path二选一 spec String类型,正则表达式 是 level String类型,TTL级别 是,PARTITION或者RECORD,目前仅支持PARTITION value String类型,保留的时长 是 units String类型,保留时长的单位 是,YEARS、MONTHS、WEEKS和DAYS。
是否开启作业告警: true:开启 false:不开启 通过客户端注册到FlinkServer的作业,如果未开启作业注册到FlinkServer功能,暂不支持在FlinkServer WebUI执行启动、开发、停止等操作。 需确保未使用“Session模式”提交作业并且需要指定作业名。 查看作业健康步骤
--user HetuEngine组件操作用户 例如: hetu-cli --user hetu_test 执行以下命令,登录数据源的catalog。支持通过使用“--mode”参数来选择通过ZooKeeper连接或HSFabric连接方式登录数据源。 通过ZooKeeper连接(不指定“--mode”参数则默认为该方式)
<inputPath>是2.b创建的目录。 提交作业时,建议使用默认spark on yarn(即5中的--master yarn-client)模式。开源支持spark standalone模式提交,但不推荐使用,该模式资源使用率低,并且使用HTTP,可能存在安全风险。 (可选)在bin目录下调
服务 > Spark2x > 配置”。 单击“全部配置”,并搜索“SPARK_DRIVER_MEMORY”。 修改参数值适当增加内存大小。仅支持整数值,且需要输入单位M或者G。例如输入512M。 参考信息 DRIVER内存不足时,查询操作可能遇到以下错误提示信息: 2018-02-11
例如租户“ta1”,默认HDFS存储目录为“tenant/ta1”。第一次创建租户时,系统自动在HDFS根目录创建“/tenant”目录。支持自定义存储路径。 否 租户不可用 /apps{1~5}/ 固定目录 WebHCat使用到Hive的包的路径 否 执行WebHCat任务会失败
stgreSQL、Oracle等)。 本指导中导出的Hive表元数据即存储在关系型数据库中的Hive表的描述信息。 业界主流大数据发行版均支持Sqoop的安装,如果是自建的社区版大数据集群,可下载社区版Sqoop进行安装。借助Sqoop来解耦导出的元数据与关系型数据库的强依赖,将
XXX,C2 = XXX,C3 = 数值范围”。 多个OR条件查询 例如,为C1、C2和C3创建组合索引。 仅对索引列首个字段进行过滤时(支持范围过滤),使用索引可提高查询性能。 Filter_Condition(IndexCol1)OR Filter_Condition(IndexCol1)OR
/srv/BigData/hadoop/data1/flume/checkpoint transactionCapacity 事务大小:即当前channel支持事务处理的事件个数,建议和Source的batchSize设置为同样大小,不能小于batchSize。 61200 hdfs.path 写入HDFS的目录,此参数不能为空。
[format_as] [properties] file_path format_as properties format_as:表示指定导出格式,支持CSV、PARQUET、CSV_WITH_NAMES、CSV_WITH_NAMES_AND_TYPES、ORC,默认为CSV。 示例 导出到HDFS