正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
登录DIS控制台,查看配置DIS Agent中“DISStream”或“CustomFileStream”通道的监控。有数据上传,表示DIS服务接收正常,Agent安装成功。 父主题: 使用Agent上传数据
Agent包中获取的“dis-agent-X.X.X.zip”压缩包保存到本地。 解压“dis-agent-X.X.X.zip”压缩包至当前目录。 父主题: 使用Agent上传数据
DIS Spark Streaming概述 DIS Spark Streaming是数据接入服务(DIS)提供的一个sdk,支持将DIS作为数据源创建DStream对接SparkStreaming。dis-spark-streaming使用流程如图1所示。 图1 DIS Spark
最早的数据。 缺省值:LATEST 枚举值: LATEST TRIM_HORIZON dli_database_name 是 String 存储该通道数据的DLI数据库名称。 dli_table_name 是 String 存储该通道数据的DLI表名称。 说明: 仅支持数据位置为
DIS数据包上传格式。(非原始数据格式) json:DIS数据包封装为json格式,满足普通使用。 protobuf:DIS数据包封装为二进制格式,可以减少体积约1/3,在数据量较大的情况下推荐使用此格式。 json body.compress.enabled 否 是否开启传输数据压缩。 false body
dis-kafka-adapter是数据接入服务(DIS)提供的一个sdk,支持原本使用Kafka Client上传数据的用户以类似原来的操作将数据上传到DIS,目前只支持Java版本。 父主题: 使用Kafka Adapter上传与下载数据
相关资源 SDK下载 兼容性 如何校验软件包完整性?
事件通知 事件通知概述 订阅事件通知 查看事件
使用前必读 概述 调用说明 终端节点 约束与限制 基本概念
Connector概述 DIS Flink Connector是数据接入服务(DIS)提供的一个sdk,支持将DIS作为数据源创建Stream对接Flink。 父主题: 使用DIS Flink Connector上传与下载数据
bigdata.dis.agent.Agent Agent: Startup completed in XXX ms. 父主题: 使用Agent上传数据
等待出现如下提示,则表示停止完成.输入“Y”,单击“回车”键即可正常关闭窗口。 Terminate batch job (Y/N)? 父主题: 使用Agent上传数据
这个示例中创建了一个源数据类型为JSON,且数据包含“key1”、“key2”这两个属性的通道。 data_type:指定源数据的类型,“JSON”表示分区中的数据格式为JSON格式。 data_schema:源数据Schema,用于描述JSON、CSV格式的源数据结构,采用Avro
户配置的source名称。 检查DIS Source下载数据是否正常。 向source指向的通道上传数据,如果flume没有报错且sink端能正常获取到数据,表示下载正常。 如果使用步骤 2中示例的配置,则从DIS获取的数据会输出到控制台上,其内容显示为字节数组格式。 登录DIS
在“API凭证”页面,查看账号名和账号ID、IAM用户名和IAM用户ID,在项目列表中查看项目ID。 父主题: 使用Kafka Adapter上传与下载数据
开通DIS 开通DIS服务
App管理 创建消费App 查询App列表 删除App 查看App详情 查看App消费状态 父主题: API说明
Checkpoint管理 提交Checkpoint 查询Checkpoint详情 删除Checkpoint 父主题: API说明
标签管理 给指定通道添加标签 查询指定通道的标签信息 删除指定通道的标签 批量添加资源标签 查询指定区域所有标签集合 使用标签过滤资源(通道等) 批量删除资源标签 父主题: API说明