检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
'passwdauth' = 'xxx', 'encryption' = 'true' ); 文档数据库服务(Document Database Service,简称DDS)完全兼容MongoDB协议,因此语法中使用“using mongo options”。 关键字 表1 CREATE TABLE关键字说明
'passwdauth' = 'xxx', 'encryption' = 'true' ); 文档数据库服务(Document Database Service,简称DDS)完全兼容MongoDB协议,因此语法中使用“using mongo options”。 关键字 表1 CREATE TABLE关键字说明
4405119-oLRHAGE7.datasource.com:3306 如果想要访问RDS的postgre集群,需要将连接地址中的协议头修改为"jdbc:postgresql",并在连接地址最后加上"/数据库名"。 例如:jdbc:postgresql://to-rds-1174405119-oLRHAGE7
如何设置安全组规则,请参见《虚拟私有云用户指南》中“安全组”章节。 获取MRS集群全部节点的ip和域名映射,在DLI跨源连接修改主机信息中配置host映射。 如何添加IP域名映射,请参见《数据湖探索用户指南》中“修改主机信息”章节。 Kafka服务端的端口如果监听在hostname上,则需要将Kafka Br
Maxwell Format 功能描述 Maxwell是一个CDC(Changelog Data Capture)工具,可以将MySql中的更改实时流式写入到Kafka等流式connector。Maxwell为changelog提供了统一的格式,而且支持使用JSON对消息进行序列化。
Capture,变更数据捕获)的工具,可以把来自 MySQL、PostgreSQL、Oracle、Microsoft SQL Server 和许多其他数据库的更改实时流式传输到 Kafka 中。 Debezium 为变更日志提供了统一的格式结构,并支持使用 JSON 和 Apache Avro 序列化消息。
中创建的预定义标签,属于全局标签。 有关预定义标签的更多信息,请参见《标签管理服务用户指南》。 本节操作介绍如何为数据库和数据表添加标签、修改标签和删除标签。 数据库标签管理 在DLI管理控制台的左侧导航栏中,单击“数据管理> 库表管理”。 在对应数据库的操作列,选择“更多> 标签”。
配置安全组规则请参见如何配置安全组规则章节。 iii. 此外,您还必须确保该云服务的实例与CDM集群所属的企业项目必须相同,如果不同,需要修改工作空间的企业项目。 本示例CDM集群的虚拟私有云、子网以及安全组和MRS集群保持一致。 步骤一:数据准备 MRS集群上创建Hive表和插入表数据。
4405119-oLRHAGE7.datasource.com:3306 如果想要访问RDS的postgre集群,需要将连接地址中的协议头修改为"jdbc:postgresql",并在连接地址最后加上"/数据库名"。 例如:jdbc:postgresql://to-rds-1174405119-oLRHAGE7
$JAVA_HOME/lib:$JAVA_HOME/jre/lib 进入confluent-5.5.2/etc/schema-registry/目录下,修改schema-registry.properties文件中如下配置项: listeners=http://<yourEcsIp>:8081
$JAVA_HOME/lib:$JAVA_HOME/jre/lib 进入confluent-5.5.2/etc/schema-registry/目录下,修改schema-registry.properties文件中如下配置项: listeners=http://<yourEcsIp>:8081
单击可复制对应的语句。 运行时长 作业的运行时长。 创建时间 每个作业的创建时间,可按创建时间顺序或倒序显示作业列表。 操作 编辑:重新编辑修改该作业。 终止: 当作业状态在“提交中”和“运行中”时,“终止”按钮才生效。 当作业状态为“已成功”、“已失败”、“已取消”的作业不能终止。
配置安全组规则请参见如何配置安全组规则章节。 iii. 此外,您还必须确保该云服务的实例与CDM集群所属的企业项目必须相同,如果不同,需要修改工作空间的企业项目。 本示例CDM集群的虚拟私有云、子网以及安全组和MRS集群保持一致。 步骤一:数据准备 MRS集群上创建Hive表和插入表数据。
Kafka Broker节点的hostname和IP请联系Kafka服务的部署人员。如何添加IP域名映射,请参见《数据湖探索用户指南》中修改主机信息章节。 Kafka是线下集群,需要通过增强型跨源连接功能将Flink作业与Kafka进行对接。且用户可以根据实际所需设置相应安全组规则。
资源 操作 说明 DLI FullAccess DLI ReadOnlyAccess Tenant Administrator DLI Service Administrator 队列 DROP_QUEUE 删除队列 √ × √ √ SUBMIT_JOB 提交作业 √ × √ √ CANCEL_JOB
r78j.datasource.com:8000/postgres 如果想要访问DWS中自定义数据库,请在这个连接里将"postgres"修改为对应的数据库名字。 passwdauth DLI侧创建的Password类型的跨源认证名称。使用跨源认证则无需在作业中配置账号和密码。 dbtable
弹性资源池最大最小CU范围。 网段 规划弹性资源池所属的网段。如需使用DLI增强型跨源,弹性资源池网段与数据源网段不能重合。弹性资源池网段设置后不支持更改。 企业项目 选择对应的企业项目。 参数填写完成后,单击“立即购买”,在界面上确认当前配置是否正确。 单击“提交”完成弹性资源池的创建。
Kafka Broker节点的hostname和IP请联系Kafka服务的部署人员。如何添加IP域名映射,请参见《数据湖探索用户指南》中修改主机信息章节。 Kafka是线下集群,需要通过增强型跨源连接功能将Flink作业与Kafka进行对接。且用户可以根据实际所需设置相应安全组规则。
现功能扩展。 用户使用自定义镜像功能需要具备Docker相关的基础知识。 使用限制 创建自定义镜像必须使用DLI提供的基础镜像。 不能随意修改基础镜像中DLI相关组件及目录。 仅支持Spark jar作业、Flink jar作业,即jar包作业。 使用流程 图1 自定义镜像使用流程
力。 用户仅编写SQL代码,无需编译,只需关心业务代码。 支持用户通过编写SQL连接各个数据源,如RDS、DWS、Kafka、Elasticsearch等数据源; 用户无需登录维护集群,在控制台上完成一键提交,无需接触集群。 支持Flink SQL作业快速开启checkpoint。