检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
L数据源所在的主机必须和CDM集群在相同的区域、可用区和VPC。 如果PostgreSQL数据源所在的主机开启了防火墙,其防火墙入方向和出方向规则均需要开放PostgreSQL数据库端口的访问权限,允许CDM集群的地址访问。 CDM集群所在的安全组,入方向和出方向规则需允许PostgreSQL数据库地址和端口访问。
灵活选择。 图3 我的数据 开放管理 登录DLV服务管理控制台,单击“管理中心”,选择“开放管理”。该页面提供应用的创建、编辑、删除、重置和查看功能。 图4 开放管理页面 场景模板 登录DLV服务管理控制台,单击“场景模板”。该页面提供模板列表查看功能。系统模拟用户的应用场景,构建模板及数据,您可以即选即用。
为了使DLV大屏与MRS集群网络互通,您需要使用云数据迁移(CDM)集群作为网络代理。请确保在CDM服务中已有可用的集群,且CDM集群与MRS集群必须处在相同的区域、可用区和VPC中,且两者还必须在相同安全组中或者安全组规则允许两者可以正常通信。 在CDM服务中,您只需要创建一个CDM集群,而不需要做其他任何操作。
为了使DLV大屏与MRS集群网络互通,您需要使用云数据迁移(CDM)集群作为网络代理。请确保在CDM服务中已有可用的集群,且CDM集群与MRS集群必须处在相同的区域、可用区和VPC中,且两者还必须在相同安全组中或者安全组规则允许两者可以正常通信。 在CDM服务中,您只需要创建一个CDM集群,而不需要做其他任何操作。
源、DLV底层计算引擎配置的管理能力。 工作空间作为成员管理、角色和权限分配的基本单元,每个团队都可具有独立的工作空间。 您只有在加入工作空间并被分配权限后,才具备管理工作空间、管理数据连接、管理大屏、管理组合屏和管理应用的一系列操作权限。 在工作空间管理中,管理员可以将其他用户
PostgreSQL数据连接 连接RDS PostgreSQL前,需要满足以下条件: 已获取RDS PostgreSQL数据源的地址、端口、用户名和密码。 为了使DLV大屏与RDS PostgreSQL实例网络互通,您需要使用云数据迁移(CDM)集群作为网络代理。请确保在CDM中已有可用的集群,且该集群与RDS
GeminiDB Influx 接口前,需要满足以下条件: 已获取云数据库 GeminiDB Influx 接口数据源的地址、端口、用户名和密码。 为了使DLV大屏与云数据库GeminiDB Influx 接口实例网络互通,您需要使用云数据迁移(CDM)集群作为网络代理。请确保在
Server数据连接 连接RDS SQL Server前,需要满足以下条件: 已获取RDS SQL Server数据源的地址、端口、用户名和密码。 为了使DLV大屏与RDS SQL Server实例网络互通,您需要使用云数据迁移(CDM)集群作为网络代理。请确保在CDM中已有可用的集群,且该集群与RDS
将签名信息添加到消息头,从而通过身份认证。 AK(Access Key ID):访问密钥ID。与私有访问密钥关联的唯一标识符;访问密钥ID和私有访问密钥一起使用,对请求进行加密签名。 SK(Secret Access Key):与访问密钥ID结合使用的密钥,对请求进行加密签名,可标识发送方,并防止请求被修改。
locale=en-us®ion=cn-north-1 在上一步获取的大屏URL中设置hash参数的形式来设置变量的默认值。参数名称和之前在数据源中设置的URL交互变量名称相同。 示例1: https://console.huaweicloud.com/dlv/vision/share/
源、DLV底层计算引擎配置的管理能力。 工作空间作为成员管理、角色和权限分配的基本单元,每个团队都可具有独立的工作空间。 您只有在加入工作空间并被分配权限后,才具备管理工作空间、管理数据连接、管理大屏、管理组合屏和管理应用的一系列操作权限。 在工作空间管理中,管理员可以将其他用户
、y1、y2。 数据源类型:选择图表的数据源。系统提供了多种数据源供用户选择,您需要先添加数据源,具体操作请参见数据连接概述。 x:线状图和柱状图的类目,对应横坐标x轴。 y: 默认包含如下2个系列: y1:系列“y1”的数据。“y1”为所映射的源数据中的字段名称。默认对应左侧纵坐标y1轴。
新建DLI数据连接 连接DLI前,需要满足以下条件: 已创建好DLI的数据库和资源队列。 新建DLI数据源连接 登录DLV管理控制台。 在“我的数据”页面,单击页面最上方的工作空间下拉列表并选择所需访问的工作空间,然后单击“新建数据连接”。 图1 新建连接 在“新建数据连接”窗口中,选择数据源类型“数据湖探索