检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
updatePartitionCountResult); } catch (Exception e) { LOGGER.error("Failed to update partition count", e); } 变更分区数量成功的返回信息如下。 1 Success to update
共租户提供通用云服务的Region;专属Region指只承载同一类业务或只面向特定租户提供业务服务的专用Region。 可用区(AZ,Availability Zone):一个AZ是一个或多个物理数据中心的集合,有独立的风火水电,AZ内逻辑上再将计算、网络、存储等资源划分成多个集
配置好以上参数后,执行putRecords_sample.py文件调用putRecords_test方法,响应结果如下: 1 2 200 {'failed_record_count': 0, 'records': [{'partition_id': 'shardId-0000000001'
双击“start-dis-agent.bat”,启动DIS Agent。 若控制台前几行中打印出如下日志表示启动成功。 [INFO ] (main) com.bigdata.dis.agent.Agent Agent: Startup completed in XXX ms. 父主题:
LoggerFactory.getLogger(DISKafkaProducerDemo.class); public static void main(String[] args) { // 认证用的ak和sk直接写到代码中有很大的安全风险,建议
转储Text格式文件的配置参数 参数 说明 取值 任务名称 用户创建转储任务时,需要指定转储任务名称,同一通道的转储任务名称不可重复。任务名称由英文字母、数字、中划线和下划线组成。长度为1~64个字符。 - MRS集群 单击“选择”,在“选择集群”窗口选择一个MRS集群。仅支持转储至非Kerberos认证的MRS集群。
LoggerFactory.getLogger(DISKafkaProducerDemo.class); public static void main(String[] args) { // 认证用的ak和sk直接写到代码中有很大的安全风险,建议
内容示例如下。具体配置项说明请参见表1。 --- # cloud region id region: myregion ## The plaintext storage of the AK and SK used for authentication has great security
record to which the SN corresponds has expired. Try to obtain the partition iterator again. 获取数据时,传入的数据游标partition-cursor对应的序列号starting-sequence-number过期
putRecords_sample.py文件调用protobuf_putRecords_test方法,响应结果下: 1 2 200 {'failed_record_count': 0, 'records': [{'partition_id': 'shardId-0000000001'
record to which the SN corresponds has expired. Try to obtain the partition iterator again. 获取数据时,传入的数据游标partition-cursor对应的序列号starting-sequence-number过期
getLogger(DISKafkaConsumerAssignDemo.class); public static void main(String[] args) { // 认证用的ak和sk直接写到代码中有很大的安全风险,建议在配
表1 转储相关配置参数 参数 说明 取值 任务名称 用户创建转储任务时,需要指定转储任务名称,同一通道的转储任务名称不可重复。任务名称由英文字母、数字、中划线和下划线组成。长度为1~64个字符。 - DWS集群 存储该通道数据的DWS集群名称。 单击“选择”,在“选择DWS集群”窗口选择一个集群。
getLogger(DISKafkaConsumerAssignDemo.class); public static void main(String[] args) { // 认证用的ak和sk直接写到代码中有很大的安全风险,建议在配
endpoint 是 DIS对应Region的数据接口地址。 请根据实际情况配置 group.id 是 DIS App名称,用于标识一个消费组,由英文字符、数字、-、_组成。 请根据实际情况配置 配置DIS Sink 表2 DIS Sink配置项说明 配置项 是否必填 说明 默认值 channel
启动过程中会报一个hadoop binary path的错误,这个可以忽略。 18/08/28 10:26:10 ERROR Shell: Failed to locate the winutils binary in the hadoop binary path java.io.IOException:
SDK加密上传数据,读取数据也需要使用JAVA SDK配置相同的密钥。 使用配置文件初始化DIS SDK客户端实例。 在“dis-sdk-demo\src\main\resources”目录下的“dis.properties”文件中添加如下配置项。 ak/sk:用户在IAM中创建的AK/SK。 region:用户使用通道所在的区域。