检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
/opt/MRS_Services_ClientConfig.tar 执行如下命令安装客户端到指定目录(绝对路径),例如“/opt/client”。目录会自动创建。 cd /opt/MRS_Services_ClientConfig sh install.sh /opt/client Components
支持,左右表可选择使用watermark或者时间范围进行状态清理 Left Outer 有条件的支持,左表可选择使用watermark进行状态清理,右表必须使用watermark+时间范围 Right Outer 有条件的支持,右表可选择使用watermark进行状态清理,左表必须使用watermark+时间范围
Bigdata/hive/webhcat/webhcat.log”报错“Service not found in Kerberos database”和“Address already in use”。 处理步骤 依次登录WebHCat实例所在节点检查“/etc/hosts”文件
拓扑定义需要包含以下几个部分: 拓扑名称 定义拓扑时需要的组件列表 拓扑的配置 拓扑的定义,包含spout列表、bolt列表和stream列表 定义拓扑名称: name: "yaml-topology" 定义组件列表示例: #简单的component定义 components:
Load进行导数,在没整改前请配置FE“max_tolerable_backend_down_num”参数值为“1”,以提升导入数据可靠性。 建议低频攒批导入数据,平均单表导入批次间隔需大于30s,推荐间隔60s,一次导入1000~100000行数据。 父主题: Doris应用开发规范
parse_presto_data_size('2.3MB'); -- 2411724 其他 typeof(expr) → varchar 返回表达式的数据类型名称。 SELECT typeof(123);-- integer SELECT typeof('cat');-- varchar(3)
txt到此目录,命令如下: 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop fs -putinput_data1
f目录的路径。用于安全认证的用户凭证文件需要放置到“src/main/resources/conf”的目录下。若不存在conf目录,请自行创建。 [2]修改restHostName为待访问的RestServer实例所在节点IP地址,并将访问节点IP配置到运行样例代码的本机hosts文件中。
txt到此目录,命令如下: 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop fs -putinput_data1
当Regionserver故障时,主集群的每个RegionServer都会通过watcher收到通知,并尝试锁定故障RegionServer的znode,包含它的队列。成功创建的RegionServer会将所有队列转移到自己队列的znode下。队列传输后,将从旧位置删除。 在主集群关闭期间,Replication
当RegionServer故障时,主集群的每个RegionServer都会通过watcher收到通知,并尝试锁定故障RegionServer的znode,包含它的队列。成功创建的RegionServer会将所有队列转移到自己队列的znode下。队列传输后,它们将从旧位置删除。 在主集群关闭期间,Replicati
在“配置资源权限”选择“待操作的集群 > Doris”,勾选“Doris管理员权限”,单击“确定”。 选择“用户 > 添加用户”,在新增用户界面,创建一个人机用户,例如developuser,并绑定2新建的角色。 使用developuser用户重新登录FusionInsight Manager,修改该用户初始密码。
conf”、“hbase-site.xml”、“hiveclient.properties”和“hive-site.xml”文件,并在Linux环境上创建文件夹保存这些配置文件,例如/opt/client/conf。 请联系管理员获取相应账号对应权限的“user.keytab”和“krb5.conf”文件,“hbase-site
启动RegisterServerHandler,与第三方RegisterServer建立联系。 “createTopicNode();” :创建Topic节点。 “register();”: 将IP、端口及并发度信息注册到Topic节点下。 “deleteTopicNode();”:
println(file.getPath()); } } } HDFS创建文件 通过"FileSystem.mkdirs(Path f)"可在HDFS上创建文件夹,其中f为文件夹的完整路径。 正确示例: public class CreateDir {
keytab=<path_to_keytab> 其中<principal_name>表示用户使用的Kerberos用户的principal,如“test@<系统域名>”。<path_to_keytab>表示<principal_name>对应的keytab文件路径,如“/opt/auth/test/user
S服务,否则可能会导致任务失败。 对于MapReduce访问多组件样例程序,操作步骤如下。 在“/opt/client/conf”文件夹中创建文件“jaas_mr.conf”,文件内容如下: Client { com.sun.security.auth.module.Krb5LoginModule
Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 实例”,单击告警上报的HiveServer,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > CPU和内存”,勾选“HiveServer内存使用率统计” ,单击“确定”,查看HiveServer进
Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 实例”,单击告警上报的HiveServer,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > CPU和内存”,勾选“HiveServer内存使用率统计” ,单击“确定”,查看HiveServer进
如需自动扩缩容,将“高级配置”中的“是否开启动态伸缩”开关置于“是”,并参考表1配置参数,开启动态伸缩: 处于“运行中”的计算实例会即时根据设置的动态伸缩参数进行扩缩容;其他状态的计算实例仅保存配置,保存的配置将在计算实例重启时生效。 表1 动态伸缩参数说明 参数 描述 取值样例 负载采集周期 每