检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
设置Flume角色客户端参数。 执行以下命令将生成的客户端证书(flume_cChat.jks)和客户端信任列表(flume_cChatt.jks)复制到客户端目录下,如“/opt/flume-client/fusionInsight-flume-1.9.0/conf/”(要求已安装Flume客户端),其中10
宏定义。 /user/test 文件操作方式 数据导入时的操作行为。全部数据从输入路径导入到目标路径时,先保存在临时目录,然后再从临时目录复制转移至目标路径,任务完成时删除临时路径的文件。转移临时文件存在同名文件时有以下行为: “OVERRIDE”:直接覆盖旧文件。 “RENAM
宏定义。 /user/test 文件操作方式 数据导入时的操作行为。全部数据从输入路径导入到目标路径时,先保存在临时目录,然后再从临时目录复制转移至目标路径,任务完成时删除临时路径的文件。转移临时文件存在同名文件时有以下行为: “OVERRIDE”:直接覆盖旧文件。 “RENAM
将3中生成的Jar包(如FlinkStreamJavaExample.jar复制到Flink客户端节点相关目录下,例如“/opt/hadoopclient”。然后在该目录下创建“conf”目录,将需要的配置文件复制至“conf”目录,具体操作请参考准备运行环境,运行Flink应用程序。
crt -keystore truststore.jks 执行该命令后需输入一个自定义密码。 将生成的“truststore.jks”文件复制到“客户端安装目录/IoTDB/iotdb/conf”目录下: cp truststore.jks 客户端安装目录/IoTDB/iotdb/conf
执行以下命令创建数据库“test001”: create database test001 on cluster default_cluster; 执行以下命令创建复制表“test010”: CREATE TABLE test001.test010 on cluster default_cluster (
oris_*/install/FusionInsight-Doris-*/doris-be/bin/doris.keytab”路径中,需要拷贝该keytab文件到所有Broker节点上,例如“/home/omm/doris_keytab”目录下,并执行chown omm:wheel
second)) as login_log(user,last_login); -- 0 07:15:30.000 假设有日志表记录用户距离上次登录的时间,那么这个结果表明平均登录时间间隔为0天7小时15分钟30秒 bool_and(boolean value) 描述:当每个输
“Rename”:表示重新命名一个目录或文件。 “Move”:表示移动文件,在“移至”选择新的目录并单击“移动”完成移动。 “Copy”:表示复制选中的文件或目录。 “Change permissions”:表示修改选中目录或文件的访问权限。 可以为属主、属组和其他用户设置“Read
jars的任务。这在当前很难实现,因为jars已被本地化且只有一个版本。 MapReduce应用框架可以通过分布式缓存进行部署,且无需依赖安装中复制的静态版本。因此,可以在HDFS中存放多版本的Hadoop,并通过配置“mapred-site.xml”文件指定任务默认使用的版本。只需设
准备样例工程所需数据。 将场景说明中的原日志文件放置在HDFS系统中。 本地新建两个文本文件,分别将log1.txt及log2.txt中的内容复制保存到input_data1.txt和input_data2.txt。 在HDFS上建立一个文件夹“/tmp/input”,并上传input_data1
录下。例如“/opt/client/Oozie/oozie-client-*/examples/apps/dataLoad/”。 可以直接复制样例目录中“map-reduce”文件夹内的内容到“dataLoad”文件夹,然后进行编辑。 目录中 “oozie-client-*”涉及的版本号以实际版本号为准。
服务 > Kafka > KafkaTopic监控”,搜索发生告警的Topic,查看副本数量。 如果副本数量值大于3,则考虑减少该Topic的复制因子(减少为3)。 在FusionInsight客户端执行以下命令对Kafka Topic的副本进行重新规划: kafka-reassign-partitions
作业运行需要时间,作业运行结束后,刷新作业列表,查看作业列表如图5所示。 图5 作业列表 作业执行成功或失败后都不能再次执行,只能新增或者复制作业,配置作业参数后重新提交作业。 登录OBS控制台,进入OBS路径,查看作业输出信息。 进入到5中创建的output路径查看相关的out
jars的任务。这在当前很难实现,因为jars已被本地化且只有一个版本。 MapReduce应用框架可以通过分布式缓存进行部署,且无需依赖安装中复制的静态版本。因此,可以在HDFS中存放多版本的Hadoop,并通过配置“mapred-site.xml”文件指定任务默认使用的版本。只需设
ux客户端环境。 如果集群启用了安全服务,需要从管理员处获取一个“人机”用户,用于认证,并且获取到该用户的keytab文件。将获取到的文件拷贝到示例工程的 src/main/resources目录。 获取的用户需要同时属于storm组和kafka组。 下载并安装Kafka客户端程序,参见《Kafka应用开发》。
--password '密码'--port ClickHouse的端口号 --secure --multiline 执行以下命令创建复制表和分布式表。 创建复制表“default.test1”。 CREATE TABLE default.test1 on cluster default_cluster
作业运行需要时间,作业运行结束后,刷新作业列表,查看作业列表如图5所示。 图5 作业列表 作业执行成功或失败后都不能再次执行,只能新增或者复制作业,配置作业参数后重新提交作业。 登录OBS控制台,进入OBS路径,查看作业输出信息。 进入到5中创建的output路径查看相关的out
准备样例工程所需数据。 将场景说明中的原日志文件放置在HDFS系统中。 本地新建两个文本文件,分别将log1.txt及log2.txt中的内容复制保存到input_data1.txt和input_data2.txt。 在HDFS上建立一个文件夹“/tmp/input”,并上传input_data1
作业名称:用户自定义任务名称,名称由英文字母、下划线或者数字组成,长度必须在1到256个字符之间。 源连接名称:选择迁移源端集群的HDFS连接,作业运行时将从此端复制导出数据。 目的连接名称:选择迁移目的端集群的HDFS连接,作业运行时会将数据导入此端。 请参见配置HDFS源端参数配置源端连接的作业参数