检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用户创建DIS通道,选择将数据转储到对象存储服务(Object Storage Service,简称OBS)、MapReduce服务(MRS)集群、数据仓库服务(Data Warehouse Service,简称DWS)或数据湖探索(Data Lake Insight,简称DLI)中,需要通过
用户创建DIS通道,选择将数据转储到对象存储服务(Object Storage Service,简称OBS)、MapReduce服务(MRS)集群、数据仓库服务(Data Warehouse Service,简称DWS)或数据湖探索(Data Lake Insight,简称DLI)中,需要通过
Settings”。 在搜索框搜索maven,找到maven的配置,请确保Maven home directory(Maven安装路径),User settings file (settings.xml文件位置)和Local repository(本地仓库地址)配置正确。 若不正确,请修改,否则步骤
打开Eclipse。选择“File > Import”弹出“Import”窗口。 选择“Maven > Existing Maven Projects”,单击“Next”,进入“Import Maven Projects”页面。 单击“Browse”按钮,根据实际情况选择“dis-sd
”。选择解压至本地的huaweicloud-dis-flink-connector-demo目录,单击确认。 选择导入Maven工程,保持默认配置,一直单击下一步即可。 单击“New Window”,在新窗口打开此工程。 在pom.xml上单击右键,选择“Maven > Reimport”,重新引入maven依赖库。
r-X.X.X目录下是所有依赖的jar包,如果使用非Maven工程,则可导入此lib目录下的所有jar到环境依赖即可 huaweicloud-dis-kafka-adapter-X.X.X-demo是一个样例工程,使用maven编写 例如使用IntelliJ IDEA,可按如下方式导入工程。
r-X.X.X目录下是所有依赖的jar包,如果使用非Maven工程,则可导入此lib目录下的所有jar到环境依赖即可 huaweicloud-dis-kafka-adapter-X.X.X-demo是一个样例工程,使用maven编写 例如使用IntelliJ IDEA,可按如下方式导入工程。
打开Eclipse。选择“File > Import”弹出“Import”窗口。 选择“Maven > Existing Maven Projects”,单击“Next”,进入“Import Maven Projects”页面。 单击“Browse”按钮,根据实际情况选择“dis-sd
导入pycharm项目。 打开pycharm。选择“File > open”弹出“Open File or Project”窗口。 选择本地(可通过环境变量去查找)python安装目录下的“\Lib\site-packages \dis_sdk_python”样例工程的存储位置
准备DIS Spark Streaming的相关环境 准备DIS应用开发环境 参考步骤1:开通DIS通道准备相应DIS环境。 安装Maven并配置本地仓库地址。 安装scala-sdk。 配置DIS Spark Streaming依赖 项目中可通过以下配置引入DIS Spark Streaming依赖:
打开Eclipse。选择“File > Import”弹出“Import”窗口。 选择“Maven > Existing Maven Projects”,单击“Next”,进入“Import Maven Projects”页面。 单击“Browse”按钮,根据实际情况选择“dis-sd
准备DIS Flink Connector的相关环境 准备DIS应用开发环境 参考步骤1:开通DIS通道准备相应DIS环境。 安装Maven并配置本地仓库地址。 安装scala-sdk。 配置DIS Flink Connector依赖 项目中可通过以下配置引入DIS Flink Connector依赖:
步骤3:发送数据到DIS 功能简介 将用户本地数据通过DIS通道不断上传至DIS服务。 目前数据支持存储至DIS和对象存储服务(Object Storage Service,简称OBS)MapReduce服务(MapReduce Service,简称MRS)、数据仓库服务(Data Warehouse
步骤3:发送数据到DIS 功能简介 将用户本地数据通过DIS通道不断上传至DIS服务。 目前数据支持存储至DIS和对象存储服务(Object Storage Service,简称OBS)MapReduce服务(MapReduce Service,简称MRS)、数据仓库服务(Data Warehouse
密文存放,使用时解密,确保安全; // 本示例以ak和sk保存在环境变量中来实现身份验证为例,运行本示例前请先在本地环境中设置环境变量HUAWEICLOUD_SDK_AK和HUAWEICLOUD_SDK_SK。 ak=os.environ
X Windows服务器上安装DIS Agent 将获取DIS Agent包中获取的“dis-agent-X.X.X.zip”压缩包保存到本地。 解压“dis-agent-X.X.X.zip”压缩包至当前目录。 父主题: 使用Agent上传数据
文件或者环境变量中密文存放,使用时解密,确保安全; // 本示例以ak和sk保存在环境变量中来实现身份验证为例,运行本示例前请先在本地环境中设置环境变量HUAWEICLOUD_SDK_AK和HUAWEICLOUD_SDK_SK。 .withAk(System.ge
分为Input与Output插件,本节介绍插件的各个配置项具体含义。 配置DIS Logstash Input 配置模板如下:(该模板为从DIS通道下载数据写入本地文件) input { dis { streams => ["YOUR_DIS_STREAM_NAME"]
ateTransferTask的方法创建转储任务。 1 dic.createTransferTask(request); 添加转储到数据仓库服务(DWS)的转储任务 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
Object Storage Service,简称OBS)、MapReduce服务(MapReduce Service,简称MRS)、数据仓库服务(Data Warehouse Service,简称DWS)、数据湖探索(Data Lake Insight,简称DLI)。 服务维护