检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
新增加一个自定义函数。 在“设置” ,在“设置”的“键”输入Hive的参数名,在“值”输入对应的参数值,则当前Hive会话会以用户定义的配置连接Hive。 可以单击 新增加一个参数。 典型场景 通过Hue界面对Hive进行创建表的操作如下: 单击Hue的WebUI界面左上角的,选择
Executor退出时执行自定义代码 配置Spark动态脱敏 distinct聚合优化 配置Spark作业失败时清理残留文件 配置Spark加载第三方jar包,用于注册UDF或者扩展SparkSQL 父主题: 使用Spark/Spark2x
526549722865860618, 532555655580483584 532555655580483594)', 'OR'); polygon连接查询 IN_POLYGON_JOIN(GEO_HASH_INDEX_COLUMN, POLYGON_COLUMN) 两张表做join查询,
StarRocks兼容MySQL协议,支持标准SQL语法,用户可通过各类MySQL客户端和常用BI工具对接。 FE StarRocks的前端节点,主要负责管理元数据、管理客户端连接、进行查询规划、查询调度等工作。 BE StarRocks的后端节点,主要负责数据存储和SQL计算等工作。 Leader Leader从Follower中自动选出,FE
节点IP、端口、用户名和密码。 在FusionInsight Manager界面,选择“集群 > 服务 > IoTDB > 实例”,查看待连接的IoTDBServer所在的节点的业务IP。 RPC端口可通过登录FusionInsight Manager,选择“集群 > 服务 > IoTDB
526549722865860618, 532555655580483584 532555655580483594)', 'OR'); polygon连接查询 IN_POLYGON_JOIN(GEO_HASH_INDEX_COLUMN, POLYGON_COLUMN) 两张表做join查询,
getExecutionEnvironment // 设置job的并发度为2 env.setParallelism(2) //设置Zookeeper为注册服务器 val zkRegisterServerHandler = new ZookeeperRegisterServerHandler
iotdb.SessionbyKerberosExample”类。 在Manager界面,选择“集群 > 服务 > IoTDB > 实例”,查看待连接的IoTDBServer所在的节点IP。 RPC端口可通过登录FusionInsight Manager,选择“集群 > 服务 > IoTDB
件的问题,合并完成后会恢复正常;另外在合并过程中请注意不要对相应的表进行写操作,否则可能会产生数据一致性问题。 如果合并完成后,在一直处于连接状态的spark-beeline/spark-sql session中查询分区表的数据,出现文件不存在的问题,根据提示可以执行"refresh
本实践指导使用Hive对OBS中存储的原始数据进行导入、分析等操作,展示了如何构建弹性、低成本的存算分离大数据分析。以用户开发一个Hive数据分析应用为例,通过客户端连接Hive后,执行HQL语句访问OBS中的Hive数据。进行企业雇员信息的管理、查询。 通过Flink作业处理OBS数据 本实践指导使用MRS集群内置的Flink
groupId,String locatorId)相同,只是允许用户自定义checksum选项。 public void close() 使用完毕后关闭连接。 表5 HDFS客户端WebHdfsFileSystem接口说明 接口 说明 public RemoteIterator<FileStatus>
时进行操作,否则会导致业务数据恢复失败。建议元数据恢复完成后再进行业务数据恢复。 对系统的影响 恢复过程中会停止用户认证,用户无法开始新的连接。 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,需要重新启动ClickHouse的上层应用。 前提条件 如果需要从远端
groupId,String locatorId)相同,只是允许用户自定义checksum选项。 public void close() 使用完毕后关闭连接。 表5 HDFS客户端WebHdfsFileSystem接口说明 接口 说明 public RemoteIterator<FileStatus>
groupId,String locatorId)相同,只是允许用户自定义checksum选项。 public void close() 使用完毕后关闭连接。 表5 HDFS客户端WebHdfsFileSystem接口说明 接口 说明 public RemoteIterator<FileStatus>
impala支持ObsFileSystem功能 支持MRS Manager页面以及组件原生页面超时时间可配置 解决Hive绑定权限卡顿问题 解决数据连接失败问题 MRS 2.1.0.3 修复问题列表: MRS Manager Manager executor高并发提交作业问题 MRS大数据组件
impala支持ObsFileSystem功能 支持MRS Manager页面以及组件原生页面超时时间可配置 解决Hive绑定权限卡顿问题 解决数据连接失败问题 MRS 2.1.0.3 修复问题列表: MRS Manager Manager executor高并发提交作业问题 MRS大数据组件
groupId,String locatorId)相同,只是允许用户自定义checksum选项。 public void close() 使用完毕后关闭连接。 表5 HDFS客户端WebHdfsFileSystem接口说明 接口 说明 public RemoteIterator<FileStatus>
配置HDFS详细参数。 yarn-site.xml 配置Yarn详细参数。 flink-conf.yaml Flink客户端配置文件。 检查客户端节点网络连接。 在安装客户端过程中,系统会自动配置客户端节点“hosts”文件,建议检查“/etc/hosts”文件内是否包含集群内节点的主机名信息,
址、客户端连接服务器的端口和备集群的HBase在ZooKeeper上的根目录。 备集群ZooKeeper实例业务IP地址可在FusionInsight Manager界面,选择“集群 > 服务 > ZooKeeper > 实例”查看。 备集群ZooKeeper客户端连接服务器的端
spark任务在连接hbase读写数据的时候,如果开启了kerberos认证,需要将客户端的配置文件“spark-defaults.conf”中的配置项spark.yarn.security.credentials.hbase.enabled置为true。所有连接hbase读写数据spark任务均需修改该配置。