检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
概念。 常用概念 准备开发和运行环境 Hive的应用程序支持使用Java、Python两种语言进行开发。推荐使用IntelliJ IDEA工具,请根据指导完成不同语言的开发环境配置。 准备Hive应用开发环境 根据场景开发工程 提供了Java、Python两种不同语言的样例工程,
在开启了Kerberos认证的集群中,客户端连接组件之前需要进行安全认证,以确保通信的安全性,Hive应用开发需要进行ZooKeeper和Kerberos安全认证。 JDBC样例工程包含安全认证代码,支持在Windows与Linux环境运行,不依赖集群客户端。HCatalog、Pytho
“ORC”是一种高效的列存储格式,在压缩比和读取效率上优于其他文件格式。 建议使用“ORC”作为Hive表默认的存储格式。 前提条件 已登录Hive客户端,具体操作请参见Hive客户端使用实践。 操作步骤 推荐:使用“SNAPPY”压缩,适用于压缩比和读取效率要求均衡场景。 Create table
表,推荐使用Hive Catalog方式登录spark-sql。 Iceberg当前为公测阶段,若需使用需联系技术支持申请白名单开通。 前提条件 已安装Spark服务,且服务运行状态正常。 已安装Spark客户端,详细操作请参见安装客户端(3.x及之后版本)。 已在Manager
约束 支持在Hudi客户端执行Spark SQL操作Hudi。 支持在Spark2x的JDBCServer中执行Spark SQL操作Hudi。 不支持在Spark2x的客户端执行Spark SQL操作Hudi,支持在Spark3.1.1及之后版本的客户端执行Spark SQL操作Hudi。
志混在一起打印,如何将业务日志单独输出至指定文件? 回答 Flink所有的运行日志打印都会打印至Yarn的本地目录下,默认所有Log都会输出至Yarn container本地目录下taskmanager.log,所有调用System.out打印都会输出至taskmanager.out文件。查看方式如下:
作为Flume的最终数据存储系统,Flume将传输的数据全部按照配置写入HDFS中。 具体操作场景请参见典型场景:从本地采集静态日志保存到HDFS和典型场景:从本地采集动态日志保存到HDFS。 Flume与HBase的关系 当用户配置HBase作为Flume的Sink时,HBas
userPrincipal”为用于认证的用户名,“userKeytabPath”和“krb5ConfPath”需要修改为该文件所在客户端服务器的实际路径。 确认工程内的参数无误后,将工程编译后进行打包,获取打包后的jar文件。 在Maven工具窗口,选择“clean”生命周期,执
别达到致命时,则发送信息通知给对应租户。 在用户集群的ECS机器被删除、关机、修改规格、重启、更新OS的行为,会导致大数据集群异常,当检测到用户的虚拟机出现以上状态的时候,发送通知给对应用户。 创建主题 主题是消息发布或客户端订阅通知的特定事件类型。它作为发送消息和订阅通知的信道
式)。 通过为MRS集群绑定ECS委托方式访问OBS,避免了AK/SK直接暴露在配置文件中的风险,具体请参考配置MRS集群通过IAM委托对接OBS。 在MRS集群中配置AK/SK,AK/SK会明文暴露在配置文件中,请谨慎使用,具体请参考MRS集群客户端如何通过AK/SK信息对接OBS。
Presto JDBC使用样例 Presto JDBC使用样例 以下示例为Presto JDBC使用样例。 以下代码片段用于实现JDBC连接Presto TPCDS Catalog。 详情请参考PrestoJDBCExample类。 1 2 3 4 5 6 7 8
parameters:校验集群参数中 Applying for cluster resources:申请集群资源中 Creating VM:创建虚拟机中 Initializing VM:初始化虚拟机中 Installing MRS Manager:安装MRS Manager中 Deploying cluster:部署集群中
Hive应用开发常用概念 准备开发和运行环境 Hive的应用程序支持使用Java、Python两种语言进行开发。推荐使用Eclipse工具,请根据指导完成不同语言的开发环境配置。 Hive应用开发环境简介 根据场景开发工程 提供了Java、Python两种不同语言的样例工程,
Kerberos认证 不开启 是否启用Kerberos认证。 用户名 admin/root 登录集群管理页面及ECS节点的用户名。 密码 - 设置登录集群管理页面及ECS节点用户的密码。 确认密码 - 再次输入设置用户密码。 企业项目 default 选择集群所属的企业项目。 通信安全授权
3.x及之后版本。 前提条件 调用HBase的put或delete接口,把数据保存到HBase中。 操作步骤 写数据服务端调优 参数入口:登录FusionInsight Manager,选择“集群 > 服务 > HBase > 配置 > 全部配置”,进入HBase服务参数“全部配
“LOW”、“NORMAL”、“HIGH”和“VERY_HIGH”。 在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“hdfs-connector”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。 设置数据源信息 单击“下一步”
“LOW”、“NORMAL”、“HIGH”和“VERY_HIGH”。 在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“hdfs-connector”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。 设置数据源信息 单击“下一步”
x之前版本。 以root用户登录任意一个Master节点,切换到omm用户。 su - omm 使用如下命令查看当前节点是否为OMS主节点。 sh ${BIGDATA_HOME}/om-0.0.1/sbin/status-oms.sh 回显active即为主节点,否则请登录另一个Master节点。
配置Kafka数据传输加密 操作场景 Kafka客户端和Broker之间的数据传输默认采用明文传输,客户端可能部署在不受信任的网络中,传输的数据可能遭到泄漏和篡改。 该章节仅适用于MRS 3.x及之后版本。 配置Kafka数据传输加密 默认情况下,组件间的通道是不加密的。用户可以配置如下参数,设置安全通道为加密的。
Broker进程的cleaner运行日志。 state-change.log Broker进程的state-change运行日志。 kafkaServer-<SSH_USER>-<DATE>-<PID>-gc.log Broker进程的GC日志。 postinstall.log Broker安装后的工作日志。