检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
properties、log4j-session.properties文件中对应的日志级别配置项。 通过客户端提交作业时会在客户端log文件夹中生成相应日志文件,由于系统默认umask值是0022,所以日志默认权限为644;如果需要修改文件权限,需要修改umask值;例如修改omm用户umask值:
compile命令进行编译。 图4 idea termial输入“mvn clean compile” 编译完成,打印“Build Success”,生成target目录。 图5 编译完成 运行程序。 右键“TestMain.java”文件,选择“Run 'TestMain.main() ”
createTopology()); } } 部署运行 在Storm示例代码根目录执行如下命令打包:"mvn package"。执行成功后,将会在target目录生成storm-examples-1.0.jar。 执行命令提交拓扑。提交命令示例(拓扑名为jdbc-test)。 storm jar /op
请求操作结果。非包周期节点组扩容请求下发成功时,会包含该字段且内容为success。 约束限制: 不涉及 取值范围: succeeded:操作成功 failed为操作失败 默认取值: 不涉及 order_id String 参数解释: 订单ID。对包周期节点组进行扩容时,会返回本次扩容产生的订单ID,需要客
0-LTS及之后版本,在“主页”右上方选择“更多 > 下载客户端”),“选择客户端类型”设置为“仅配置文件”,单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。 例如,客户端配置文件压缩包为“FusionInsight_Cluster_1_Services_Client
Catalog时,“jdbc_url”需要添加“serverTimezone=GMT%2B8”参数,避免因源集群和当前Doris集群时区不一致导致Catalog创建失败。 如果MySQL驱动版本为6.x及之后版本,则“driver_class”值为“com.mysql.cj.jdbc.Driver”。如果MySQL驱动版本为5
t/partitions result=failure 在ZooKeeper各个实例节点上执行id -Gn kafka命令,发现有一个节点无法查询用户组信息。 [root @bdpsit3ap03 ~]# id -Gn kafka id: kafka: No such user
Policy”,添加HDFS权限控制策略。 根据业务需求配置相关参数。 表1 HDFS权限参数 参数名称 描述 Policy Name 策略名称,可自定义,不能与本服务内其他策略名称重复。 Policy Conditions IP过滤策略,可自定义,配置当前策略适用的主机节点,可填写一个或多个IP
router联邦场景下,如果表的根路径与根路径“/user”的目标NameService不同,在二次合并时需要手动清理放入回收站的原表文件,否则会导致合并失败。 此工具应用客户端配置,需要做性能调优可修改客户端配置文件的相关配置。 shuffle设置 对于合并功能,可粗略估计合并前后分区数的变化:
页面,例如: 图3 Kafka集群监控 图4 Topic监控 图5 Consumer监控 Kafka Eagle对接常见问题 问题现象: 无法获取Kafka CPU与内存监控信息日志提示。 java.io.IOException cannot be cast to javax.management
当IDEA可以识别出Scala SDK时,在设置界面,选择编译的依赖jar包,然后单击“OK”应用设置 图22 Add Scala Support 当系统无法识别出Scala SDK时,需要自行创建。 单击“Create...”。 图23 Create... 在“Select JAR's for
ector只允许配置为1。 10 Tolerance 容灾策略。 none表示低容错,即出错后导致Connector任务失败。 all表示高容错,出错后忽略失败的记录并继续运行。 all Start Time(MRS 3.2.0版本) 同步表的起始时间。 2022/03/16 14:14:50
”,根据待安装客户端节点的节点类型选择正确的平台类型后(x86选择x86_64,ARM选择aarch64),单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。 例如,客户端配置文件压缩包为“FusionInsight_Cluster_1_Services_Client
override def cancel(): Unit = { running = false } } } 生成Table1和Table2,并使用Join对Table1和Table2进行联合查询,打印输出结果。 object SqlJoinWithSocket
将鼠标移到右上角登录用户名处,在下拉列表中选择“我的凭证”。 单击“访问密钥”页签,单击“新增访问密钥”,输入验证码或密码。单击“确定”,生成并下载访问密钥,在.csv文件中获取AK/SK信息。 导入OBS数据至Doris表中 登录安装了MySQL的节点,执行以下命令,连接Doris数据库。
自定义表值函数,支持一个或多个输入参数,可返回多行多列。详情请参考UDTF java代码及SQL样例。 上传UDF至FlinkServer 准备UDF jar文件,大小不能超过200MB。 访问Flink WebUI,请参考访问FlinkServer WebUI界面。 单击“UDF管理”进入UDF管理页面。
router联邦场景下,如果表的根路径与根路径“/user”的目标NameService不同,在二次合并时需要手动清理放入回收站的原表文件,否则会导致合并失败。 此工具应用客户端配置,需要做性能调优可修改客户端配置文件的相关配置。 shuffle设置 对于合并功能,可粗略估计合并前后分区数的变化:
(state=42000,code=40000) 设置Hive动态分区表精准拦截 针对涉及动态分区的自读自写场景,由于动态分区在编译阶段获取不到输出的分区信息,无法判断是否存在自读自写场景,为了实现拦截功能,提供了nonstrict和strict两种拦截模式供用户选择。其中: nonstrict模式是
Hudi源表类型为Merge On Read时,可以映射为Hive的两张外部表(ro表和rt表),ro表提供读优化视图查询,rt表提供实时视图查询以及增量视图查询。 不能对Hudi表映射的Hive外部表做增删改操作(即insert、update、delete、load、merge、alter、msck),只支持查询操作(select)。
override def cancel(): Unit = { running = false } } } 生成Table1和Table2,并使用Join对Table1和Table2进行联合查询,打印输出结果。 object SqlJoinWithSocket