检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
不支持 支持 8.1.1及之后版本 使用约束: 如果需要使用CDL, Kafka服务的配置参数“log.cleanup.policy”参数值必须为“delete”。 MRS集群中已安装CDL服务。 CDL仅支持抓取非系统表下的增量数据,MySQL、PostgreSQL等数据库的内置数据库不支持抓取增量数据。
并可以查看各个ConsumerGroups Coordinator所在节点IP,在页面右上角,用户可以输入ConsumerGroup来搜索指定的ConsumerGroup信息。 在Consumer Summary一栏,可查看当前集群已存在的消费组,单击消费组名称,可查看该消费组所
TABLE “创建”,RWX+ownership(for create external table - the location) 说明: 按照指定文件路径创建datasource表时,需要path后面文件的RWX+ownership权限。 DROP TABLE “Ownership”(of
使用root用户登录安装了集群客户端的节点。 cd /opt/client source bigdata_env 创建输入Topic和输出Topic,与样例代码中指定的Topic名称保持一致,输出Topic的清理策略设置为compact。 kafka-topics.sh --create --zookeeper
source bigdata_env kinit 组件操作用户(例如developuser) 创建输入Topic和输出Topic,与样例代码中指定的Topic名称保持一致,输出Topic的清理策略设置为compact。 kafka-topics.sh --create --zookeeper
faults.conf”中的spark.driver.extraJavaOptions;或者在启动Spark任务时,通过“--conf”来指定Driver的配置,如下(此处spark.driver.extraJavaOptions“=”号后面的引号部分不能缺少)。 ./spark-submit
待操作集群的名称 > 服务> Loader > 配置”,选择“全部配置”,在搜索栏里搜索“LOADER_GC_OPTS”参数。如果之前没有显示指定“-XX: MaxPermSize”参数,初次添加可将初始值设置为“-XX: MaxPermSize=256M”(第一次调整完如果告警未消
kafka_topic_list 是 Kafka的topic列表。 kafka_group_name 是 Kafka的Consumer Group名称,可以自己指定。 kafka_format 是 Kafka消息体格式。例如JSONEachRow、CSV、XML等。 kafka_row_delimiter
群的名称 > Yarn > 调度队列 > root”,勾选default的“提交”,单击“确定”保存。 说明: 若指定state backend为HDFS,例如指定state backend目录为"hdfs://hacluster/flink-checkpoint",需同样为"h
ey和Value可以分别对应维度列和指标列。从聚合模型的角度来说,Key列相同的行,会聚合成一行。其中Value列的聚合方式由用户在建表时指定。 Tablet&Partition 在Doris的存储引擎中,用户数据被水平划分为若干个数据分片(Tablet,也称作数据分桶)。每个T
r13.jar file_path “insertData2kafka.sql”文件路径,建议写全路径。需在二次样例代码中获取并上传至客户端指定目录。 说明: 当作业需要以yarn-application模式提交时,需替换如下路径: file_path = os.getcwd() +
如果对接了OBS,而服务端依然使用HDFS,那么需要显式在命令行使用该参数指定HDFS的地址。格式为hdfs://{NAMESERVICE}。其中{NAMESERVICE}为hdfs nameservice名称。 如果当前的HDFS具有多个nameservice,那么需要指定所有的nameservice,并以‘,’
= new Gson(); return gson.toJson(dataPoints); } PUT_URL中加入了sync参数,表示必须等到数据写入HBase后才可以返回,强烈建议使用此参数;如果不使用sync,表示采用异步写入HBase的方式,可能存在丢失数据的风险。具体
${BIGDATA_DATA_HOME}/data2 -R和chown omm:wheel ${BIGDATA_DATA_HOME}/data2 -R。 在MRS控制台,单击指定的NodeManager实例并切换到“实例配置”。 将配置项“yarn.nodemanager.local-dirs”或“yarn.nodemanager
被括在引号中,任何内部引号不会被转义)。建议不要使用该函数。无法在不影响现有用法的情况下修正该函数,可能会在将来的版本中删除该函数。 返回指定索引位置的json元素,索引从0开始 SELECT json_array_get('["a", [3, 9], "c"]', 0); --
“include”策略适用于当前输入的对象,“exclude”表示策略适用于除去当前输入内容之外的其他对象。 Policy Label 为当前策略指定一个标签,您可以根据这些标签搜索报告和筛选策略。 Storm Topology 配置当前策略适用的拓扑名称。可以填写多个值。 Description
使用集群安装用户登录集群客户端节点。 cd /opt/client source bigdata_env 创建输入Topic和输出Topic,与样例代码中指定的Topic名称保持一致,输出Topic的清理策略设置为compact。 kafka-topics.sh --create --zookeeper
source bigdata_env kinit 组件操作用户(例如developuser) 创建输入Topic和输出Topic,与样例代码中指定的Topic名称保持一致,输出Topic的清理策略设置为compact。 kafka-topics.sh --create --zookeeper
例如,挂载目录名为“/srv/BigData/data1”,则其使用的磁盘为“/dev/vdb”,磁盘分区为“/dev/vdb1”。 执行以下命令,指定数据盘待扩容的分区,通过growpart进行扩容。 growpart 数据盘 分区编号 例如执行以下命令: growpart /dev/vdb
r审计信息。 Security Zone 配置安全区域,Ranger管理员可将各组件的资源切分为多个区域,由不同Ranger管理员为服务的指定资源设置安全策略,以便更好的管理,具体操作可参考配置Ranger安全区信息。 Settings 查看Ranger相关权限设置信息,例如查看