检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
多主实例配置为:#{conf_dir}/fairscheduler.xml 多租户配置为:./__spark_conf__/__hadoop_conf__/fairscheduler.xml ./__spark_conf__/__hadoop_conf__/fairscheduler.xml spark
ini中配置需要卸载的节点IP(只会卸载填写IP的节点)。 每行配置一个IP,中间不能有空行。 nohup sh install.sh rollback & 通过tail -f nohup.out查看执行情况(打印“rollback patch success.”表示执行完成)。 父主题: 回滚补丁
rval'7'day; 函数 approx_set(x) → HyperLogLog 描述:返回HyperLogLog。这个数据草图是approx distinct()的基础,可以通过调用cardinality()来存储和使用。 select approx_set(cookieid)
增强BulkLoad效率的配置项 参数 描述 配置的值 -Dimporttsv.mapper.class 用户自定义mapper通过把键值对的构造从mapper移动到reducer以提高性能。mapper只需要把每一行的原始文本发送到reducer,reducer解析每一行的每一条记录并创建键值对。
hetu.job.appId.parser.rule 监控HetuEngine作业的大目录监控路径中作业ID的提取规则。例如: {subdir}/{appid}:作业ID在监控目录的子目录中,子目录名称不固定。 {appid}:作业ID在监控目录下。 {appid} hetu.job
离,即将字符串1更改为字符串2所需的最小单字符编辑(插入,删除或替换)次数。 select levenshtein_distance('apple','epplea');-- 2 lower(string) → varchar 描述:将字符转换为小写。 select lower('HELLo
-XX:+PrintGCDetails -XX:+PrintGCDateStamps -XX:+UseGCLogFileRotation -XX:NumberOfGCLogFiles=10 -XX:GCLogFileSize=1M"时,效果如下: [main-SendThread(10
html,安装MySQL client applications and tools。 使用oracle-connector时,要求给连接用户赋予如下系统表或者视图的select权限: dba_tab_partitions、dba_constraints、dba_tables 、dba_segments
方式二:将HDFS的如下配置项修改为开源类。 dfs.client.failover.proxy.provider.hacluster=org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider 父主题: 组件配置类
Hudi使用Cleaner后台作业,不断清除不需要的旧版本数据。通过配置hoodie.cleaner.policy和hoodie.cleaner.commits.retained可以使用不同的清理策略和保存的commit数量。 执行cleaning有两种方式: 同步clean由参数hoodie.clean.automatic控制,默认自动开启。
/hiveserver/prestartDetail.log HiveServer启动前的工作日志 /hiveserver/check-serviceDetail.log Hive服务启动是否成功的检查日志 /hiveserver/cleanupDetail.log HiveServer卸载的清理日志
/hiveserver/prestartDetail.log HiveServer启动前的工作日志 /hiveserver/check-serviceDetail.log Hive服务启动是否成功的检查日志 /hiveserver/cleanupDetail.log HiveServer卸载的清理日志
数据目录SSD和HDD的配置导致建表时偶现报错 现象描述 建表时偶现报错“Failed to find enough host with storage medium and tag”。 原因分析 Doris支持一个BE节点配置多个存储路径,并支持指定路径的存储介质属性,如SSD
curl -k -i -u user name:password -X POST -HContent-type:application/json -d '{"plainText":"password"}' 'https://x.x.x.x:28443/web/api/v2/tools/encrypt'
Hudi使用Cleaner后台作业,不断清除不需要的旧版本数据。通过配置hoodie.cleaner.policy和hoodie.cleaner.commits.retained可以使用不同的清理策略和保存的commit数量。 执行cleaning有两种方式: 同步clean由参数hoodie.clean.automatic控制,默认自动开启。
Hudi Schema演进并发说明 建表时需要指定hoodie.cleaner.policy.failed.writes = 'LAZY',否则并发提交时会触发rollback。 DDL并发 表1 支持的DDL并发操作 DDL操作 add rename change type change
send metrics fail. Request CES error code xxx”或“CES internal error code xxx”, 表示功能服务存在异常,请执行3。 告警附加信息中显示“Call CES to send metrics fail. Too many
false fail_action 是 String 参数解释: 自定义自动化脚本执行失败后,是否继续执行后续脚本和创建集群。建议您在调试阶段设置为“continue”,无论此自定义自动化脚本是否执行成功,则集群都能继续安装和启动。由于缩容成功无法回滚,因此缩容后执行的脚本“fail_a
then echo "configure Flink failed." exit 1 fi return 0; } #the start main main "$@" exit 0 执行命令“sh generate_keystore
增强BulkLoad效率的配置项 参数 描述 配置的值 -Dimporttsv.mapper.class 用户自定义mapper通过把键值对的构造从mapper移动到reducer以帮助提高性能。mapper只需要把每一行的原始文本发送给reducer,reducer解析每一行的每一条记录并创建键值对。