检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
参数及参数说明 参数名称 参数说明 url jdbc:XXX://HSBroker1_IP:HSBroker1_Port,HSBroker2_IP:HSBroker2_Port,HSBroker3_IP:HSBroker3_Port/catalog/schema?serviceDiscoveryMode=hsbroker
大小可进行配置),会自动压缩,压缩后的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号].log.zip”。最多保留最近的20个压缩文件,压缩文件保留个数和压缩文件阈值可以配置。 表1 Tez日志列表 日志类型 日志文件名 描述 运行日志 tezui
、“PartitionName”和“DirName”。 确认“HostName”节点的“PartitionName”对应的磁盘是否在对应服务器的插槽上。 是,执行5。 否,执行6。 联系硬件工程师将故障磁盘在线拔出。 使用PuTTY工具登录发生告警的“HostName”节点,检查
逻辑:以下两种情况下判定这两辆车是同行车: 如果两辆车都通过相同序列的收费站, 通过同一收费站之间的时间差小于一个特定的值。 该例子有两种实现模式,其中实现1的逻辑如图1所示,实现2的逻辑如图2所示。 图1 实现1逻辑 实现1的逻辑说明 : 根据车牌号聚合该车通过的所有收费站并排序,处理后数据如下:
functions; 结果显示,被drop的function仍然存在,如图2所示。 图2 执行show functions操作后的结果 回答 问题根因: 上述两个问题是由于多主实例模式或者多租户模式下,使用spark-beeline通过add jar的方式创建function,此function在各
clientPort HBase集群中ZooKeeper的端口号。 2181 hbase.zookeeper.quorum HBase集群中ZooKeeper地址。 192.168.0.7,192.168.0.8,192.168.0.9 zookeeper.znode.parent HBase存在Z
Server,其中ip为对应集群的Presto的浮动IP(可通过在Presto配置项中搜索PRESTO_COORDINATOR_FLOAT_IP的值获得),port为Presto Server的端口号,默认为7520。 presto_cli.sh --server http://ip:port
static void main(String[] args) throws Exception { String userPrincipal = "sparkuser"; String userKeytabPath = "/opt/FIclient/user.keytab";
重新下载并安装MRS集群完整客户端。具体操作请参考安装客户端。 如果需要在管理控制台执行作业提交操作,需要更新集群内置客户端配置文件。 在MRS集群概览页面,获取弹性IP,使用该IP登录Master节点,执行如下命令刷新集群内置客户端。 su - omm sh /opt/executor/bin/refresh-client-config
kadmin/admin的默认密码为“KAdmin@123”,首次登录后会提示该密码过期,请按照提示修改密码并妥善保存。 执行以下命令,重置组件运行用户密码。此操作对所有服务器生效。 cpw 组件运行用户名 例如:cpw oms/manager 集群中,默认的密码复杂度要求: 密码字符长度为8~32位。 至少需要
crt”和“root-ca.pem”: sh ${OMS_RUN_PATH}/workspace/ha/module/hacom/script/gen-cert.sh --root-ca --country=CN --state=state --city=city --company=company
testDB User user Password user用户密码 Description - 表2 Kafka数据连接配置参数 参数名称 示例 Link Type kafka Name kafkalink Description - 参数配置完成后,单击“测试连接”,检查数据连通是否正常。
r2节点上为主备部署,同一时刻只有一个节点上运行该进程,首先确认节点上是否有该进程,如果有该进程则进行重启操作。 分别登录Master1节点和Master2节点,执行以下命令确认当前节点是否存在该进程。当有输出时则进程存在。 ps -ef | grep "/opt/executor"
单击“导入数据”,正确配置HDFS和OBS路径。 配置OBS或者HDFS路径时,单击“浏览”并选择文件目录,然后单击“确定”。 图2 导入数据 OBS路径地址说明: 必须以“obs://”开头。 不支持导入KMS加密的文件或程序。 不支持导入空的文件夹。 目录和文件名称可以包含中文、字母、数字、中划线和下划线,但不能包含;|&>
com.sun.crypto.provider.CipherCore.doFinal(CipherCore.java:959) at com.sun.crypto.provider.CipherCore.doFinal(CipherCore.java:824) at com.sun
hAdmin = conn.getAdmin(); HTableDescriptor ht = hAdmin.getTableDescriptor(tableName); // Judge whether the table exists
properties”文件: iotdb_ssl_enable=true jdbc_url=jdbc:iotdb://IoTDBServer实例IP地址:IoTDBServer RPC端口 # 进行认证的用户名 username=developuser # 进行认证的用户密码,该密码建议密文存放,使用时解密,确保安全。
使用导入器通过“.csv”,“.txt”等格式的文件导入数据。 使用创建的用户第一次登录Hue WebUI,需修改密码。 用户获取Hue WebUI的访问地址后,可以给其他无法访问Manager的用户用于访问Hue WebUI。 在Hue的WebUI操作但不操作Manager页面,重新访问Manager时需要输入已登录的账号密码。
stayTime: Int) def main(args: Array[String]) { String userPrincipal = "sparkuser"; String userKeytabPath = "/opt/FIclient/user.keytab";
stayTime: Int) def main(args: Array[String]) { String userPrincipal = "sparkuser"; String userKeytabPath = "/opt/FIclient/user.keytab";