数据湖探索 DLI-使用Livy提交Spark Jar作业:通过DLI Livy工具提交Spark作业到DLI

时间:2025-02-12 15:00:52

通过 DLI Livy工具提交Spark作业到DLI

本示例演示通过curl命令使用DLI Livy工具将Spark作业提交到DLI。

  1. 将开发好的Spark作业程序jar包上传到OBS路径下。

    例如,本示例上传“spark-examples_2.11-XXXX.jar”到“obs://bucket/path”路径下。

  2. 以root用户登录到安装DLI Livy工具的E CS 服务器。
  3. 执行curl命令通过DLI Livy工具提交Spark作业请求到DLI。

    ECS_IP为当前安装DLI Livy工具所在的弹性云服务器的私有IP地址。

    curl --location --request POST 'http://ECS_IP:8998/batches' \--header 'Content-Type: application/json' \--data '{    "driverMemory": "3G",    "driverCores": 1,    "executorMemory": "2G",    "executorCores": 1,    "numExecutors": 1,    "args": [        "1000"    ],    "file": "obs://bucket/path/spark-examples_2.11-XXXX.jar",    "className": "org.apache.spark.examples.SparkPi",    "conf": {        "spark.dynamicAllocation.minExecutors": 1,        "spark.executor.instances": 1,        "spark.dynamicAllocation.initialExecutors": 1,        "spark.dynamicAllocation.maxExecutors": 2    }}'

support.huaweicloud.com/devg-dli/dli_09_0201.html