检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
to: Long): DataStream[Long] 获取用户定义的一串序列数据,作为输入流数据。 from是指数值串的起点。 to是指数值串的终点。 def readTextFile(filePath: String): DataStream[String] 获取用户定义的
to: Long): DataStream[Long] 获取用户定义的一串序列数据,作为输入流数据。 from是指数值串的起点。 to是指数值串的终点。 def readTextFile(filePath: String): DataStream[String] 获取用户定义的
org/docs/r2.7.2/hadoop-project-dist/hadoop-hdfs/WebHDFS.html。 准备运行环境 安装客户端。在节点上安装客户端,如安装到“/opt/client”目录,可安装方法可参考《MapReduce服务用户指南》的“客户端管理”章节。 确认服务端HDFS组件已经安装,并正常运行。
Manager(MRS 3.x及之后版本)。 选择“集群 > 待操作集群名称 > 服务 > Loader”。 单击“LoaderServer(节点名称,主)”打开“Loader WebUI”界面。 图1 Loader WebUI界面 单击“新建作业”,进入“基本信息”界面,创建作业基本信息。
amples”目录下的“conf”文件夹复制到ClickHouse客户端安装目录下,例如“客户端安装目录/JDBC”目录下。 登录客户端节点,进入jar文件上传目录下,修改文件权限为700。 cd /opt/Bigdata/client chmod 700 clickhouse-examples
组名称进入安全组控制台,在入方向规则页签中添加一个“协议端口”为TCP 3306,“源地址”为Hive的MetaStore实例所在的所有节点IP的规则。 Ranger仅支持对接RDS服务MySQL数据库,版本号为:MySQL 5.7.x、MySQL 8.0。 Hive支持对接RD
登录时需修改密码。(普通模式不涉及) 如需在集群间拷贝数据,拷贝数据的集群双方都需要启用集群间拷贝数据功能。 操作步骤 登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如
登录FusionInsight Manager系统,具体请参见访问集群Manager。 选择“集群 > 服务 > Loader”。 单击“LoaderServer(节点名称,主)”打开“Loader WebUI”界面。 图1 Loader WebUI界面 单击“新建作业”,进入“基本信息”界面,创建作业基本信息。
generateSequence(long from, long to) 获取用户定义的一串序列数据,作为输入流数据。 from是指数值串的起点。 to是指数值串的终点。 public DataStreamSource<String> readTextFile(String filePath)
generateSequence(long from, long to) 获取用户定义的一串序列数据,作为输入流数据。 from是指数值串的起点。 to是指数值串的终点。 public DataStreamSource<String> readTextFile(String filePath)
generateSequence(long from, long to) 获取用户定义的一串序列数据,作为输入流数据。 from是指数值串的起点。 to是指数值串的终点。 public DataStreamSource<String> readTextFile(String filePath)
generateSequence(long from, long to) 获取用户定义的一串序列数据,作为输入流数据。 from是指数值串的起点。 to是指数值串的终点。 public DataStreamSource<String> readTextFile(String filePath)
Manager(MRS 3.x及之后版本)。 选择“集群 > 待操作集群名称 > 服务 > Loader”。 单击“LoaderServer(节点名称,主)”打开“Loader WebUI”界面。 图1 Loader WebUI界面 单击“新建作业”,进入“基本信息”界面,创建作业基本信息。
“客户端安装目录/JDBC”目录,用来调测JDBC二次样例; “客户端安装目录/JDBCTransaction”目录,用来调测事务二次样例。 登录客户端节点,进入jar文件上传目录下,修改文件权限为700。 cd 客户端安装目录/JDBC 或:cd 客户端安装目录/JDBCTransaction
登录时需修改密码。(普通模式不涉及) 如需在集群间拷贝数据,拷贝数据的集群双方都需要启用集群间拷贝数据功能。 操作步骤 登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如
> 待操作集群的名称 > 服务 > Flume”,在“实例”下单击“Flume”角色。 图6 单击Flume角色 选择准备上传配置文件的节点行的“Flume”角色,单击“实例配置”页面“flume.config.file”参数后的“上传文件”,选择“properties.properties”文件完成操作。
Manager(MRS 3.x及之后版本)。 选择“集群 > 待操作集群名称 > 服务 > Loader”。 单击“LoaderServer(节点名称,主)”打开“Loader WebUI”界面。 图1 Loader WebUI界面 单击“新建作业”,进入“基本信息”界面,创建作业基本信息。
compaction压力增大,该参数取值范围为[1,10],默认值为“1”,建议根据实际资源情况进行设置。 操作步骤 以客户端安装用户,登录安装客户端的节点。 执行以下命令切换到客户端目录。 cd 客户端安装目录 执行以下命令配置环境变量。 source bigdata_env 如果当前集群已启
定义访问时间的条件。 对于手动迁移规则,不需要条件。 行为列表: 将存储策略设置为给定的数据层名称 迁移到其他文件夹 为文件设置新的副本数 删除文件 设置节点标签(NodeLabel) 表2 行为类型 行为类型 描述 所需参数 MARK 为确定数据的冷热度并设置相应的数据存储策略。 <param>
”用户第一次登录时需修改密码。 使用HIndexImportTsv批量生成HBase本地二级索引数据 以客户端安装用户登录安装了客户端的节点。 执行以下命令配置环境变量并认证用户: cd 客户端安装目录 source bigdata_env kinit 组件业务用户(未开启Kerberos认证的集群请跳过该操作)