检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
产生告警的主机名 对系统的影响 告警长期存在时,会导致Manager频繁主备倒换,用户无法正常登录FusionInsight Manager平台,无法进行正常运维操作。 pms进程持续重启,导致告警上报时间段监控数据采集异常,严重时可导致告警上报时间段监控数据丢失。 可能原因 pms进程异常。
启动Flink Kafka Producer应用向Kafka发送数据。 启动Flink Kafka Consumer应用从Kafka接收数据,保证topic与producer一致。 在数据内容中增加前缀并进行打印。 父主题: Flink Kafka样例程序
datasource.hive_sync.table 要同步给hive的表名,建议这个值和hoodie.datasource.write.table.name保证一致。 unknown hoodie.datasource.hive_sync.username 同步hive时,指定的用户名。 hive
ht_IoTDB_*/install/FusionInsight-IoTDB-*/iotdb/ext/udf”下。 在部署集群的时候,需要保证每一个IoTDBserver节点的UDF JAR包路径下都存在相应的Jar包。您可以通过修改IoTDB配置“udf_root_dir”来指定UDF加载Jar的根路径。
况下,都显式的设置该参数,避免后续机器增加新网卡导致IP选择不正确问题。“priority_network”的值是CIDR格式表示的,用于保证所有节点都可以使用统一的配置值。参数值分为两部分,第一部分是点分十进制的IP地址,第二部分是一个前缀长度。 例如,10.168.1.0/8会匹配所有10
def min(position: Int): DataStream[T] 在一个KeyedStream上滚动求最小值。min返回了最小值,不保证非最小值列的准确性。 position和field代表对某一列求最小值。 def min(field: String): DataStream[T]
1-LTS及以后版本,忽略此项条件)。 建议 Archive作业每天至少执行一次,可以2~4小时执行一次。 Hudi的MOR表和COW表都需要保证每天至少1次Archive,MOR表的Archive可以参考2.2.1.6小节和Compaction放在一起异步去执行。COW的Archive可以在写数据时自动判断是否执行。
def min(position: Int): DataStream[T] 在一个KeyedStream上滚动求最小值。min返回了最小值,不保证非最小值列的准确性。 position和field代表对某一列求最小值。 def min(field: String): DataStream[T]
def min(position: Int): DataStream[T] 在一个KeyedStream上滚动求最小值。min返回了最小值,不保证非最小值列的准确性。 position和field代表对某一列求最小值。 def min(field: String): DataStream[T]
def min(position: Int): DataStream[T] 在一个KeyedStream上滚动求最小值。min返回了最小值,不保证非最小值列的准确性。 position和field代表对某一列求最小值。 def min(field: String): DataStream[T]
产生告警的主机名。 对系统的影响 告警长期存在时,会导致Manager频繁主备倒换,用户无法正常登录FusionInsight Manager平台,无法进行正常运维操作。 floatip进程持续重启,可能引起无法访问服务原生UI界面。 可能原因 浮动IP地址异常。 处理步骤 检查主管理节点的浮动IP地址状态。
--executor-memory 2G --driver-memory 1G 在浏览器中输入“弹性IP地址:9999”地址,登录到Jupyter WebUI(保证ECS的安全组对外放通本地公网IP和9999端口),登录密码为步骤 2设置的密码。 图3 登录Jupyter WebUI 创建代码。 创建
ht_IoTDB_*/install/FusionInsight-IoTDB-*/iotdb/ext/udf”下。 在部署集群的时候,需要保证每一个IoTDBserver节点的UDF JAR包路径下都存在相应的Jar包。您可以通过修改IoTDB配置“udf_root_dir”来指定UDF加载Jar的根路径。
STARTUP_MSG: args = [] STARTUP_MSG: version = 1.3.0 解决办法 重新提交一次任务即可,保证在任务执行期间不手动重启HiveServer进程。 父主题: 使用Hive
'0s' 配置去重需在ClickHouse中创建ReplacingMergeTree表 由于Flink写入ClickHouseBalancer无法保证同key数据写入同一个ClickHouseServer中,所以同key数据的合并需要依赖ClickHouse的ReplacingMergeTree引擎。
串后缀,有扩展名的文件在文件名增加字符串后缀。字符串具有唯一性。 “APPEND”:在旧文件尾部合并新文件内容。合并操作只是简单的追加,不保证追加文件是否可以使用。例如文本文件可合并,压缩文件合并后可能无法使用。 “IGNORE”:保留旧文件,不复制新文件。 “ERROR”:转移
如:ls -l ,不要配置成ll。可配置成Shell命令ls ,参数添加一个 “-l”。 Windows上传Shell脚本到HDFS时,请保证Shell脚本的格式为Unix,格式不正确会导致Shell作业提交失败。 父主题: 使用Hue提交Oozie作业
如:ls -l ,不要配置成ll。可配置成Shell命令ls ,参数添加一个 “-l”。 Windows上传Shell脚本到HDFS时,请保证Shell脚本的格式为Unix,格式不正确会导致Shell作业提交失败。 父主题: 使用Hue提交Oozie作业
ThirdPartyKafka前置准备。 上层源支持opengauss和ogg,源端Kafka Topic可被MRS集群Kafka消费。 ThirdKafka不支持同步分布式Opengauss数据库数据到CDL。 ClickHouse前置准备。 用户需要有操作ClickHouse的权限,相关操作请参见创建ClickHouse角色。
ngMergeTree引擎,数据不能完全去重情况下,有些开发人员习惯写final关键字进行实时合并去重操作(merge-on-read),保证查询数据无重复数据。可以通过argMax函数或其他方式规避此问题。 数据修改 建议慎用delete、update的mutation操作 标