检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
2019-10-08 第二十三次正式发布: 优化Java和Python SDK。 2019-07-08 第二十次正式发布: 小文件功能下线,删除“创建源数据类型是FILE的通道”。 2019-07-03 第十九次正式发布: Java SDK不兼容原生Kafka客户端,删除“连接Kafka consumer”。
JREs 勾选已安装的JDK,单击“OK”。 单击“Add”按钮,弹出“Add JRE”窗口,如图3所示。 图3 JRE Type 选择一个JRE类型,单击“Next”,弹出如图4所示窗口。 图4 JRE Definition 配置JDK基本信息,单击“Finish”完成配置。 JRE home:JDK安装路径。
JREs 勾选已安装的JDK,单击“OK”。 单击“Add”按钮,弹出“Add JRE”窗口,如图3所示。 图3 JRE Type 选择一个JRE类型,单击“Next”,弹出如图4所示窗口。 图4 JRE Definition 配置JDK基本信息,单击“Finish”完成配置。 JRE home:JDK安装路径。
单击“添加转储任务”按钮,在弹出的“添加转储任务”页面配置转储相关配置项。 每个通道最多可创建5个转储任务。 源数据类型为FILE的通道,不允许添加转储任务。 单击“立即创建”。 表1 转储任务参数说明 参数 参数解释 配置值 转储服务类型 选择OBS。 通道里的流式数据存储在DIS中,并周期性导入对象存储服务(Object
标签数超出限制 请删除废弃的标签并重新添加标签。 400 DIS.4602 Invalid resource type. 资源类型不合法 请检查资源类型是否合法。 400 DIS.4603 The resource does not exist. 资源不存在 请确认该资源是否已被删除。
请根据实际情况配置 body_compress_enabled 否 是否开启传输数据压缩。 否 body_compress_type 否 数据压缩类型,当前支持的压缩算法: lz4:综合来看效率最高的压缩算法,更加侧重压缩解压速度,压缩比并不是第一。 snappy:其目标不是最大限度压缩
与原生KafkaConsumer接口适配说明 表1 接口适配说明 原生KafkaConsumer 类型 DISKafkaConsumer 说明 Set<TopicPartition> assignment() 接口 支持 获取consumer消费的通道与分区信息 Set<String>
与原生KafkaConsumer接口适配说明 表1 接口适配说明 原生KafkaConsumer 类型 DISKafkaConsumer 说明 Set<TopicPartition> assignment() 接口 支持 获取consumer消费的通道与分区信息 Set<String>
限实现功能。因此给用户授予数据接入服务的权限时,需要同时授予依赖的权限,数据接入服务的权限才能生效。 表1 DIS系统权限 系统角色 策略类别 描述 依赖关系 DIS Administrator 系统角色 对数据接入服务的所有执行权限。 无 DIS Operator 系统角色 通
API实现,而KafkaProducer是基于TCP协议实现,在接口兼容上有如下差异。 表1 适配说明 原生KafkaProducer 类型 DISKafkaProducer 说明 Future<RecordMetadata> send(ProducerRecord<K, V>
API实现,而KafkaProducer是基于TCP协议实现,在接口兼容上有如下差异。 表1 适配说明 原生KafkaProducer 类型 DISKafkaProducer 说明 Future<RecordMetadata> send(ProducerRecord<K, V>
监控的文件信息,可同时配置多个监控文件信息。 当前支持如下模式上传: DISStream:持续监控文本文件,实时收集增量数据按分隔符解析并上传到DIS通道(通道源数据类型为BLOB/JSON/CSV),配置项说明请参见表2。 具体配置格式可以参见版本包中的“agent.yml”的样例。 关于AK/SK加密的使用说明: