检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
选择正确的平台类型后(x86选择x86_64,ARM选择aarch64)单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。 例如,客户端文件压缩包为“FusionInsight_Cluster_1_Services_Client.tar”,解压后得到“Fu
Maven Projects”,进行maven项目依赖import。 图1 reimport projects 编译运行程序。 放置好配置文件,并修改代码匹配登录用户后,文件列表如图2所示。 图2 hbase-example待编译目录列表 编译方式有以下两种: 方法一 选择“Maven
JAR文件上传到HDFS上自定义的目录存放,要确保用户对JAR文件具有读权限,建议权限设置“chmod 644”。若希望HetuEngine服务在卸载时一并删除UDF JAR文件,那么可以将自定义的目录创建在“/user/hetuserver/”路径中。 当前HetuEngine仅支持UDF J
所需参数 MARK 为确定数据的冷热度并设置相应的数据存储策略。 <param> <name>targettier</name> <value>STORAGE_POLICY</value> <param> MOVE 为设置数据存储策略或NodeLabel并调用HDFS Mover工具。 <param>
开放源码数据库。 Derby数据库的获取。在官网下载最新版的Derby数据库,将下载下来的数据库将传入Linux客户端(如"/opt"),并解压。 在Derby的安装目录下,进入bin目录,输入如下命令: export DERBY_INSTALL=/opt/db-derby-10
Maven Projects”,进行maven项目依赖import。 图1 reimport projects 编译运行程序。 放置好配置文件,并修改代码匹配登录用户后,文件列表如下图所示。 图2 doris-example待编译目录列表 编译方式有以下两种: 方法一 选择“Maven
安装方法可参考《MapReduce服务用户指南》的“客户端管理”章节。 确认服务端HDFS组件已经安装,并正常运行。 客户端运行环境已安装1.7或1.8版本的JDK。 获取并解压缩安装“MRS_HDFS_Client.tar”包。执行如下命令解压。 tar -xvf MRS_HDFS_Client
所需参数 MARK 为确定数据的冷热度并设置相应的数据存储策略。 <param> <name>targettier</name> <value>STORAGE_POLICY</value> <param> MOVE 为设置数据存储策略或NodeLabel并调用HDFS Mover工具。 <param>
开放源码数据库。 Derby数据库的获取。在官网下载最新版的Derby数据库,将下载下来的数据库将传入Linux客户端(如"/opt"),并解压。 在Derby的安装目录下,进入bin目录,输入如下命令: export DERBY_INSTALL=/opt/db-derby-10
请参见配置HDFS冷热数据迁移。 在Hue的WebUI界面设置动态存储策略之前,需先在Manager界面设置冷热数据迁移的CRON表达式,并启动自动冷热数据迁移特性。 操作方法为: 修改HDFS服务的NameNode的如下参数值。参数修改方法请参考修改集群服务配置参数。 参数 描述
Maven Projects”,进行maven项目依赖import。 图1 reimport projects 编译运行程序。 放置好配置文件,并修改代码匹配登录用户后,文件列表如下图所示。 图2 doris-example待编译目录列表 编译方式有以下两种: 方法一 选择“Maven
客户端安装目录/Hive/HCatalog/conf/hivemetastore-site.xml 进入Hive Beeline命令行,创建一个数据库并确认Location为OBS路径。 cd 客户端安装目录 kinit 组件操作用户 beeline create database testdb1;
信息: “备份对象”表示备份的数据源。 “备份路径”表示备份文件保存的完整路径。 选择正确的项目,在“备份路径”手工选中备份文件的完整路径并复制。 在FusionInsight Manager,选择“运维 > 备份恢复 > 恢复管理”。 单击“创建”。 在“任务名称”填写恢复任务的名称。
”进入“Project Structure”页面。 在“Project Structure”页面,选择“Artifacts”,单击“+”并选择“From modules with dependencies...”。 图1 添加Artifacts 选择“extract to the
非增量查询:不设置。 Hudi表查询操作如下: 以Hive客户端安装用户登录安装客户端的节点。 执行以下命令,切换到客户端安装目录,配置环境变量并认证用户。 cd 客户端安装目录 source bigdata_env kinit Hive业务用户(如果集群未开启Kerberos认证,请跳过该操作)
0093 Metadata of version xxx not found. 无法找到版本号为xxx的版本元数据信息。 请确认集群版本是否正确并使用正确的集群版本 400 0160 Failed to kill the job. 终止作业失败 请尝试重新发起调用,或联系技术支持,或检查集群状态是否正常
信息: “备份对象”表示备份的数据源。 “备份路径”表示备份文件保存的完整路径。 选择正确的项目,在“备份路径”手工选中备份文件的完整路径并复制。 在FusionInsight Manager,选择“运维 > 备份恢复 > 恢复管理”。 单击“创建”。 在“任务名称”填写恢复任务的名称。
kafkaParams); //用brokers and topics新建direct kafka stream //从Kafka接收数据并生成相应的DStream。 JavaInputDStream<ConsumerRecord<String, String>> messages
单位:分钟 默认值:1 1 单击“删除”可以删除已增加的自定义配置参数。 单击“确定”。 登录集群客户端所在节点,执行以下命令,切换到客户端安装目录并认证用户。 cd /opt/client source bigdata_env kinit HetuEngine组件操作用户 (普通模式集群跳过)
如果x为int或二进制形式,则十六进制格式数字以string类型返回。否则,如果x为string,则会将字符串的每个字符转换为十六进制表示形式,并返回结果string select hex(68); -- 44 select hex('AE'); -- 4145 to_base(x, radix)