检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Livy用于提交Spark作业到DLI的客户端工具。 准备工作 创建DLI队列。在“队列类型”中选择“通用队列”,即Spark作业的计算资源。具体请参考创建队列。 准备一个linux弹性云服务器ECS,用于安装DLI Livy。 ECS需要放通30000至32767端口、8998端口。具体操作请参考添加安全组规则。 ECS需安装Java
使用JDBC提交作业 操作场景 在Linux或Windows环境下您可以使用JDBC应用程序连接DLI服务端提交作业。 使用JDBC连接DLI提交的作业运行在Spark引擎上。 JDBC版本2.X版本功能重构后,仅支持从DLI作业桶读取查询结果,如需使用该特性需具备以下条件: 在DLI管理控制台“全局配置
5版本JDBC驱动包。 JDBC驱动包命名为“huaweicloud-dli-jdbc-<version>.zip”,支持在所有平台(Linux、Windows等)所有版本中使用,且依赖JDK 1.7及以上版本。 如果使用maven构建,加入huaweicloud-dli-jdbc依赖的maven配置项为:
rsion>-bin.tar.gz”,支持在Linux环境中使用,且依赖JDK 1.8及以上版本。 配置DLI Spark-submit 使用spark-submit的机器安装JDK 1.8或以上版本并配置环境变量,当前仅在Linux环境下使用spark-submit工具。 下载
1.86.Final-linux-aarch_64.jar bonecp-0.8.0.RELEASE.jar jakarta.ws.rs-api-2.1.6.jar netty-transport-native-epoll-4.1.86.Final-linux-x86_64.jar