-
怎样查看弹性资源池和作业的资源使用情况? - 数据湖探索 DLI
怎样查看弹性资源池和作业的资源使用情况? 在大数据分析的日常工作中,合理分配和管理计算资源,可以提供良好的作业执行环境。 您可以根据作业的计算需求和数据规模分配资源、调整任务执行顺序,调度不同的弹性资源池或队列资源以适应不同的工作负载。待提交作业所需的CUs需小于等于弹性资源池的剩余可用CUs,才可以确保作业任务的正常执行。
-
SQL编辑器 - 数据湖探索 DLI
柱状图和折线图的X轴可为任意一列,Y轴仅支持数值类型的列,扇形图对应图例和指标。 快速导入导入SQL语句的方法 双击左侧导航栏列表中的表名,即可将选定表的查询语句导入SQL语句编辑窗口中,单击“执行”,即可完成查询。 可以通过单击“更多”,选择“设为模板”,将对应的SQL语句保存为模板,供将来执行使用。
-
迁移DWS数据至DLI - 数据湖探索 DLI
选择已创建的DLI数据源连接。 资源队列 选择已创建的DLI SQL类型的队列。 数据库名称 选择DLI下已创建的数据库。当前示例为在DLI上创建数据库和表创建的数据库名,即为“testdb”。 表名 选择DLI下已创建的表名。当前示例为在DLI上创建数据库和表创建的表名,即为“tabletest”。
-
迁移RDS数据至DLI - 数据湖探索 DLI
节。 iii. 此外,您还必须确保该云服务的实例与CDM集群所属的企业项目必须相同,如果不同,需要修改工作空间的企业项目。 本示例CDM集群的虚拟私有云、子网以及安全组和RDS MySQL实例保持一致。 步骤一:数据准备 RDS的MySQL的数据库实例上创建数据库和表。 登录RD
-
使用自定义镜像 - 数据湖探索 DLI
连接容器镜像服务。 登录SWR管理控制台。 选择左侧导航栏的“总览”,单击页面右上角的“登录指令”,在弹出的页面中单击复制登录指令。 在安装容器引擎的虚拟机中执行上一步复制的登录指令。 创建容器镜像组织。如果已创建组织则本步骤可以忽略。 登录SWR管理控制台。 选择左侧导航栏的“组织管理”,单击页面右上角的“创建组织”。
-
创建Redis表 - 数据湖探索 DLI
不缓存。 注意事项 不支持Redis集群。 请务必确保您的账户下已在分布式缓存服务(DCS)里创建了Redis类型的缓存实例。 如何创建Redis类型的缓存实例请参考《分布式缓存服务用户指南》。 该场景作业需要运行在DLI的独享队列上,因此要与DCS实例建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。
-
查询增强型跨源连接列表 - 数据湖探索 DLI
of Objects 各个队列创建跨源连接的信息,详细信息请参考表5。 dest_vpc_id 否 String 对应服务的虚拟私有云标识。具体内容可参考《虚拟私有云API参考》。 dest_network_id 否 String 对应服务的子网网络标识。具体内容可参考《虚拟私有云API参考》。
-
创建增强型跨源连接 - 数据湖探索 DLI
输入长度不能超过64个字符。 dest_vpc_id 是 String 对应服务的vpc的ID。具体请参考《虚拟私有云API参考》。 dest_network_id 是 String 对应服务的子网网络ID,即为需要建立连接的服务所在的子网。具体请参考《虚拟私有云API参考》。 elastic_resource_pools
-
DWS维表 - 数据湖探索 DLI
和子网分别创建相应的增强型跨源连接,并绑定所要使用的Flink弹性资源池。 设置DWS和Kafka的安全组,添加入向规则使其对Flink的队列网段放通。参考测试地址连通性分别根据DWS和Kafka的地址测试队列连通性。若能连通,则表示跨源已经绑定成功,否则表示未成功。 连接DWS
-
构造请求 - 数据湖探索 DLI
点中获取。 scope参数定义了Token的作用域,下面示例中IAM获取的Token仅能访问project下的资源。您还可以设置Token的作用域为某个账号下所有资源或账号的某个project下的资源,详细定义请参见IAM获取用户Token。 1 2 3 4 5 6
-
创建DLI表关联OpenTSDB - 数据湖探索 DLI
经典型跨源返回的连接地址,管理控制台操作请参考经典型跨源连接。 metric 所创建的DLI表对应的OpenTSDB中的指标名称。 tags metric对应的标签,用于归类、过滤、快速检索等操作。可以是1个到8个,以“,”分隔,包括对应metric下所有tagk的值。 注意事项
-
创建DLI表关联OpenTSDB - 数据湖探索 DLI
经典型跨源返回的连接地址,管理控制台操作请参考经典型跨源连接。 metric 所创建的DLI表对应的OpenTSDB中的指标名称。 tags metric对应的标签,用于归类、过滤、快速检索等操作。可以是1个到8个,以“,”分隔,包括对应metric下所有tagk的值。 注意事项
-
Confluent Avro Format - 数据湖探索 DLI
注册或抓取schema的Confluent Schema Registry的URL。 示例 1. 从kafka中作为source的topic中读取json数据,并以confluent avro的形式写入作为sink的topic中 根据kafka和ecs所在的虚拟私有云和子网创建相应的跨源,并绑
-
Confluent Avro Format - 数据湖探索 DLI
注册或抓取schema的Confluent Schema Registry的URL。 示例 1. 从kafka中作为source的topic中读取json数据,并以confluent avro的形式写入作为sink的topic中 根据kafka和ecs所在的虚拟私有云和子网创建相应的跨源,并绑
-
经典型跨源连接(废弃,不推荐使用) - 数据湖探索 DLI
在“经典型跨源”页面,选择一条连接,单击该连接“操作”列中的“更多”>“解绑队列”,在弹出的对话框中,选择要解绑的队列(支持多选),单击“确定”。 方式二: 单击选择的连接名称,进入该连接的“ 详情”页面。选择要解绑的队列,单击该连接“操作”列中的“解绑队列”,在弹出的对话框中,选择要解绑的队列,单击“确定”。 标签管理
-
迁移Kafka数据至DLI - 数据湖探索 DLI
iii. 此外,您还必须确保该云服务的实例与CDM集群所属的企业项目必须相同,如果不同,需要修改工作空间的企业项目。 本示例CDM集群的虚拟私有云、子网以及安全组和创建的MRS集群保持一致。 步骤一:数据准备 MRS集群上创建Kafka的Topic并且向Topic发送消息。 参考访问MRS
-
创建增强型跨源连接 - 数据湖探索 DLI
数据源所使用的虚拟私有云。 子网 数据源所使用的子网。 路由表 显示子网实际绑定的路由表。 说明: 此处的路由表为目的数据源子网关联的路由表,不同于“路由信息”中的路由。“路由信息”中的路由为所绑定的队列下子网关联的路由表中的路由。 目的数据源子网与队列所在子网为不同的子网,否则会造成网段冲突。
-
配置DLI 队列与公网网络联通 - 数据湖探索 DLI
在增强型跨源连接页面添加自定义路由。此处添加的是访问的IP地址的路由信息。 详细操作请参考自定义路由信息。 图7 增强型跨源链接添加测试路由信息 步骤7:测试公网连通性 测试队列到公网的连通性。单击队列操作列下方的“更多 > 测试地址连通性”,输入访问的公网IP地址。 图8 测试地址联通性 父主题: 队列网络联通
-
从Kafka读取数据写入到DWS - 数据湖探索 DLI
步骤4:创建增强型跨源连接 创建DLI连接Kafka的增强型跨源连接 在Kafka管理控制台,选择“Kafka专享版”,单击对应的Kafka名称,进入到Kafka的基本信息页面。 在“连接信息”中获取该Kafka的“内网连接地址”,在“基本信息”的“网络”中获取获取该实例的“虚拟私有云”和“子网”信息,方便后续操作步骤使用。
-
DLI增强型跨源连接DWS失败 - 数据湖探索 DLI
口。 将入方向源地址配成0.0.0.0/0,端口8000,仍然无法连接,继续排查子网配置。客户的DWS子网关联了网络ACL。网络ACL是一个子网级别的可选安全层,通过与子网关联的出方向/入方向规则控制出入子网的数据流。关联子网后,网络ACL默认拒绝所有出入子网的流量,直至添加放通