检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
报错找不到QueryProvider类 问题 报错找不到QueryProvider类。 回答 搜索mrs客户端目录,将以下两个jar包放入sqoop的lib目录下。 父主题: Sqoop常见问题
单击“连接管理”标签,进入新建和编辑连接的界面,这里配置CDM产品访问源库的权限,主要包括源端数据库和目的端数据库的类型,地址、端口、账号、密码等。 第一步:创建源端(Oracle)的数据连接(如果已创建,则跳过) 第二步:创建目的端(MRS-Hive)的数据连接(如果已创建,则跳过) 数据库连接配置成功后测试连通性,测试成功即配置完成。
文件是否生效。 ip link ifconfig 参见上述步骤,完成其他裸金属服务器的配置。 待其他裸金属服务器配置完成后,互相ping对端自定义VLAN网络配置的同网段IP,检查是否可以ping通。 父主题: 自定义VLAN网络
当您因业务需要,需要从一个区域迁移OBS桶数据到另一个区域,如从华南-广州迁移到华北-北京一。创建迁移任务时,源端桶选择华南-广州的桶,目的端桶选择华北-北京一。具体操作请参见创建单个迁移任务。 当前目的端桶和对象存储迁移服务应在同一区域。 父主题: 产品咨询
与消费的API集,请参考Kafka官网。 客户端网络环境说明 客户端可以通过以下方式访问Kafka实例: 如果客户端是云上ECS,与Kafka实例处于同region同VPC,则可以直接访问Kafka实例提供的内网连接地址。 如果客户端是云上ECS,与Kafka实例处于相同regi
请参考使用KafkaUI查看消费信息(MRS 3.1.2及之后版本)。 前提条件 使用Kafka客户端时:已安装客户端,例如安装目录为“/opt/client”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用KafkaUI时:已创建具有KafkaUI页面访问权限的用
MRS集群管理员已明确业务需求,并准备一个系统用户。 已开启Token认证机制,详细操作请参考Kafka服务端配置。 已安装Kafka客户端。 操作步骤 以客户端安装用户,登录安装Kafka客户端的节点。 切换到Kafka客户端安装目录,例如“/opt/client”。 cd /opt/client 执行以下命令,配置环境变量。
map.java.opts”和“mapreduce.reduce.java.opts”,这两个参数为客户端参数,分别指定了Map/Reduce任务对应的JVM启动参数。 修改客户端“客户端安装路径/Yarn/config/mapred-site.xml”配置文件中“mapreduce.map
> 概览 > 更多 > 下载客户端”(MRS 3.3.0-LTS及之后版本,在“主页”右上方选择“更多 > 下载客户端”),“选择客户端类型”设置为“仅配置文件”,单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。 例如,客户端配置文件压缩包为“Fusion
map.java.opts”和“mapreduce.reduce.java.opts”,这两个参数为客户端参数,分别指定了Map/Reduce任务对应的JVM启动参数。 修改客户端“客户端安装路径/Yarn/config/mapred-site.xml”配置文件中“mapreduce.map
m、Kafka等。 定义拓扑访问HDFS、HBase等组件,使用客户端命令,提交Topology失败。 可能原因 提交拓扑中没有包含用户的keytab文件。 提交拓扑中包含的keytab和提交用户不一致。 客户端/tmp目录下已存在user.keytab,且宿主非运行用户。 原因分析
但是,同样的程序连接ORACLE、SQL SERVER却没有问题。 原因分析 ODBC客户端设置了max varchar=255,导致超过255的字段被截断。 处理方法 在ODBC客户端,增大max varchar的值即可。 父主题: 数据库使用
高吞吐、动态扩展、便捷多样的消息中间件服务。用户购买RocketMQ实例后,生产者客户端连接RocketMQ实例进行消息生产,生产的消息被存储在RocketMQ实例的Topic中,消费者客户端通过订阅Topic消费消息。 使用RocketMQ实例生产消费消息的流程如下图所示。 图1
SocketException: No buffer space available”异常? 这个问题发生在往HDFS写文件时。查看客户端和DataNode的错误日志。 客户端日志如下: 图1 客户端日志 DataNode日志如下: 2017-07-24 20:43:39,269 | ERROR | DataXceiver
示数据库监控页面。 在左侧导航栏选择“工具 > SQL诊断”,进入SQL诊断页面,其中包括: 查询ID 数据库 模式名 用户名称 客户端 客户端IP地址 运行时间(ms) CPU时间(ms) 开始时间 完成时间 详情 在SQL诊断页面您可查看SQL的诊断信息。在所指定查询ID行的
fs-customize”中添加4.b获取的参数值,如下图所示: 保存并重启ClickHouse服务。 以客户端安装用户,登录客户端所在节点。 执行以下命令切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行
回答 Hive中日志框架和Hadoop中的日志框架存在依赖冲突导致。需删除当前使用的Sqoop客户端目录中,Hive目录下的log4j-*-api-*.jar。 登录客户端节点,例如客户端目录为“/opt/client”,则执行: rm -rf /opt/client/Hive/Be
登录目的端HBase集群的FusionInsight Manager,选择“集群 > 服务 > HBase”。 选择“更多 > 下载客户端”。 图1 下载HBase客户端 在下载客户端页面,客户端类型选择“仅配置文件”,单击“确定”下载HBase配置文件到本地。 图2 下载HBase配置文件 登录源端Hive集群的FusionInsight
通过mongoexport和mongoimport工具迁移数据 mongoexport和mongoimport是MongoDB客户端自带的备份恢复工具。您可以在本地设备或ECS中安装MongoDB客户端,通过mongoexport和mongoimport工具将自建MongoDB数据库或其他云数据库MongoDB迁移至华为云GeminiDB
地址进入: 管理端:点击进入 (https://mail.sparkspace.huaweicloud.com/webadmin) 用户端:点击进入(https://mail.sparkspace.huaweicloud.com/) 2. 登录账号密码: 管理端登录账密:购买邮箱