检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
例工程的target下生成含有“-with-dependencies”字段的jar包。 运行JDBC样例程序: 使用Windows命令行形式运行JDBC样例工程: 在Windows上创建一个目录作为运行目录,如“D:\jdbc_example”,将1中生成的“target”目录下
索引状态为INACTIVE。 indexspecs.to.addandbuild(可选):表示创建时同时生成索引数据,数据表数据量较大时不建议使用,建议使用索引数据生成工具生成索引数据。 indexspecs.to.addandbuild和tablename.to.index不能同时使用,当使用indexspecs
例工程的target下生成含有“-with-dependencies”字段的jar包。 运行JDBC样例程序: 使用Windows命令行形式运行JDBC样例工程: 在Windows上创建一个目录作为运行目录,如“D:\jdbc_example”,将1中生成的“target”目录下
使用ca.crt证书生成客户端的truststore。 在安装了Java的环境下执行命令: keytool -noprompt -import -alias myservercert -file ca.crt -keystore truststore.jks。 将生成的truststore
回答 当userB对tableB执行insert操作后,会在外表数据路径下生成新的数据文件,且文件属组是userB,当userA查询tableA时,会读取外表数据目录下的所有的文件,此时会因没有userB生成的文件的读取权限而查询失败。 实际上,不只是查询场景,还有其他场景也会出现问题。例如:inset
0/flume/bin 此处版本号8.1.0.1为示例,具体以实际环境的版本号为准。 执行以下命令,生成并导出Flume角色服务端、客户端证书。 sh geneJKS.sh -f xxx -g xxx 生成的证书在“${BIGDATA_HOME}/FusionInsight_Porter_8.1
2:9820/user/hbase/t1 可手动把导出的数据复制到新集群HDFS中,如上路径:“/user/hbase/t1”。 使用新集群HBase表用户,在新集群中生成HFiles。 hbase org.apache.hadoop.hbase.mapreduce.Import -Dimport.bulk.
install命令进行编译。 图2 idea termial输入“mvn clean install” 编译完成,打印“BUILD SUCCESS”,生成target目录,生成jar包在target目录中。 导出样例项目依赖的jar包。 在IDEA的下方Terminal窗口或其他命令行工具进入“pom.xml”所在目录。
D时,先将Table中的split生成PartitionedFile,再将这些PartitionedFile进行合并。即将多个PartitionedFile组成一个partition,从而减少partition数量,避免在Shuffle操作时生成过多的hash分桶,如图1所示。 图1
D时,先将Table中的split生成PartitionedFile,再将这些PartitionedFile进行合并。即将多个PartitionedFile组成一个partition,从而减少partition数量,避免在Shuffle操作时生成过多的hash分桶,如图1所示。 图1
该用户的“user.keytab”文件与“krb5.conf”文件。 生成IoTDB客户端SSL证书 若集群开启了SSL加密传输且本地Windows或Linux环境首次运行IoTDB样例代码,需执行以下操作生成客户端SSL证书。 以客户端安装用户,登录安装客户端的节点。 切换到I
k只负责写数据和生成Compaction计划,由单独的Spark作业异步执行compaction、clean和archive。Compaction计划的生成是轻量级的对Flink写入作业影响可以忽略。 上述方案落地的具体步骤参考如下: Flink只负责写数据和生成Compaction计划
--show-details 该命令包含均衡方案的生成和执行两部分,其中--show-details为可选参数,表示是否打印方案明细,--throttle表示均衡方案执行时的带宽限制,单位:bytes/sec, --enable-az-aware为可选参数,表明生成均衡方案时,开启跨AZ特性,使用
执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 生成证书文件 keytool -export -alias fusioninsightsubroot -storepass changeit -keystore
执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 生成证书文件 keytool -export -alias fusioninsightsubroot -storepass changeit -keystore
调测Storm应用 生成Storm应用Jar包 在Linux环境中调测Storm应用 查看Storm应用调测结果 父主题: Storm开发指南
存储配置 参数 描述 默认值 hoodie.parquet.max.file.size Hudi写阶段生成的parquet文件的目标大小。对于DFS,这需要与基础文件系统块大小保持一致,以实现最佳性能。 120 * 1024 * 1024 byte hoodie.parquet.block
即可。 运行Spark Core样例程序 在工程目录下执行mvn package命令生成jar包,在工程目录target目录下获取,比如:FemaleInfoCollection.jar 将生成的Jar包(如CollectFemaleInfo.jar)拷贝到Spark运行环境下(
告警 > ALM-24010 Flume证书文件非法或已损坏 > 定位信息”。查看告警上报的实例的IP地址。 检查系统中证书文件是否有效,重新生成证书文件。 以root用户登录告警所在节点主机,并执行su - omm切换用户。 执行以下命令进入Flume服务证书目录。 cd ${BI
enabled 开启后,当统计列信息时,会生成直方图。直方图可以提高估计准确度,但是收集直方图信息会有额外工作量。 false [true,false] spark.sql.statistics.histogram.numBins 生成的直方图的槽位数。 254 >=2 spark