支持事务强一致 资源管理:可以根据业务优先级进行资源动态分配,实现“快慢通道” 按需扩容:弹性按需扩容,灵活应对用户数据及负载潮汐变化 仓湖一体:DWS可以直接读写OBS对象存储系统的数据,支持数据冷热分级 多源数据融合,实时数据迅捷分析 多源数据融合,实时数据迅捷分析 复杂SQ
效率,且确保了资源配置的一致性 提高管理安全性 提高管理安全性 RAM服务内置了不同资源类型的共享权限,资源使用者只能对资源进行权限内的访问,保证共享资源在满足资源使用者业务诉求的同时,提升资源管理的安全性 组织级共享管理 组织级共享管理 用户通过RAM服务将资源共享给指定的组织
为了提高效率,GaussDB(DWS)提供了资源管理功能,GaussDB(DWS)资源管理以资源池为资源承载,对于不同的业务类型可以创建不同的资源池,为这些资源池配置不同的资源占比,然后将数据库用户添加至对应的资源池中,以此来限制这些数据库用户的资源使用。 8)逻辑集群 逻辑集群是基于Node
数据库加密密钥(可选) 在创建GaussDB(DWS)集群时,如果开启“加密数据库”的功能,需使用KMS(密钥管理服务)的密钥加解密数据库。密钥按照数据加密服务密钥的计费规则进行计费。 计费模式 GaussDB(DWS) 提供两种计费模式供您选择:包年/包月、按需计费。两种方式供您灵活选择,使用越久越便宜。
数据仓库服务_使用GDS高速加载批量数据 数据仓库服务_快速入门 06:34 数据仓库服务_快速入门 使用Data Studio连接DWS并导入数据 07:01 使用Data Studio连接DWS并导入数据 数据仓库服务_扩容、监控、集群管理 04:01 数据仓库服务_扩容、监控、集群管理 数据仓库服务_使用GDS高速加载批量数据
少清理碎片工作量。 数据分区带来的好处如下: 改善可管理性 利用分区,可以将表和索引划分为一些更小、更易管理的单元。这样,数据库管理员在进行数据管理时就能采取“分而治之”的方法。 有了分区,维护操作可以专门针对表的特定部分执行。 可提升删除操作的性能 删除数据时可以删除整个分区,
式查询分析。 跨数据中心协同分析 随着数据量的不断增加,在单数据中心存储计算能力有限情况下,不可能把所有数据都统一汇总到单个数据中心。而在进行数据挖掘、碰撞分析时,又需要涉及更多更全面的数据,此时,一个统计查询业务就可能涉及到多个数据中心。 GaussDB(DWS)支持直接跨库访
专家技术布道、开发者交流分享的平台 文档下载 需求管理 CodeArts Req服务文档下载 更多产品信息 更多产品信息 产品术语解释 华为云服务等级协议 地区和终端节点 系统权限 增值服务 增值服务 支持计划 7*24小时全产品技术支持 专业服务 提供上云、用云、管云全生命周期服务 培训服务 提供企业上云全栈培训认证服务
应用运维管理 AOM 资源 应用运维管理 AOM 资源 华为云一站式可观测平台:基于指标、链路、日志、事件提供全景监控 华为云一站式可观测平台:基于指标、链路、日志、事件提供全景监控 文档 专家咨询 资源与工具 资源与工具 运维圈子 运维干货、资料下载、功能体验 会员中心 完成码豆任务,海量商品等你来赢
DWS.DCS设计云系统是一个高度集成且协同化的研发管理系统,通过平台的建设可为用户单位提供精准定位连接内部研发所需的图形硬件支撑资源(工作站/图形服务器)、三维应用工具软件,用户无论身处何地,都能轻松访问平台,进行高质量的三维设计业务开展产品功能:戴西DWS.DCS设计云系统是
标、产品设计与仿真数据管理、产品试验数据管理、参数化建模与自动化仿真、第三方系统集成、敏捷联合开发平台等。产品特点:戴西DWS数字化研发平台是一种综合性数字化研发解决方案,由戴西软件结合15年经验自主研发。将3D显示现实技术、仿真计算技术、创新协作技术、数据管理和智能化分析等功能
数据资源管理平台是一站式数据资源管理及开发工具。通过数据管理、数据治理等核心能力,推动实施人员一站式实现数据治理,提升工作效率;帮助客户改善数据质量,沉淀数据资产,释放数据价值。数据资源管理平台是易华录基于数据全生命周期治理的技术积累和实践优势,打造的一站式数据资源开发及管理工具
退出等措施网络设备防护 当对网络设备进行远程管理时,应采取必要措施防止鉴别信息在网络传输过程中被窃听云资源维保管理服务-企业版可以根据企业自身需求进行定制开发云资源维保管理服务-智能版智能版本加入了AI智能处理,安全大数据库模型漏洞扫描,木马查杀,后门检查,预防等
,GaussDB(DWS)对象设计,GaussDB(DWS)性能管理,GaussDB(DWS)数据访问,GaussDB(DWS)安全管理,GaussDB(DWS)资源管控,GaussDB(DWS)高可靠,GaussDB(DWS)高可用,GaussDB(DWS)运维监控规格:培训时
优速云EHR系统的智分析BI为企业管理者定制了许多常用的人力资源分析模型,运用大数据分析技术,可以让不同层级的管理者实时掌握企业内人力资源的总体状况,并从多个维度进行分析展现。 学习系统、考试系统、能力评判标准化,完善建立人员学习体系,,绩效管理、薪酬管理、考勤管理,招聘管理,人事管理一体化,人员
通过医院人力资源管理平台统一管理全院人员(包括编内和编外),可实现有效的人力数据共享,满足复杂的人员考勤需求,人事管理信息互通共享,帮助人员能力提升与战略执行。1.提供客观的人力资源信息,支撑医院科学决策,2.通过平台实现全员协同、人力管理、顶层管控,帮助医院实现高效运营和高绩效组织
为菜单栏,根据个人权限不同显示不同,主要包含我的办公、考勤管理、员工管理。主页中间下半部分为要我审批、要我处理、我发起的的快捷展示,可以点击打开并进行单据的处理。右边上半部分为公司项目图片,下半部分为功能快捷键。二、建议配置WIN8及以上操作系统(含IOS系统),并安装谷歌浏览器
帮助零售品牌企业运营会员资产,实现精准营销、高效运营的目标。,解决电商型企业的问题,帮助企业公域平台自动同步库存及物流单号。,通过仓库的合理规划,规范管理,提升仓储的效率和拓宽仓储的空间,为企业整个货品的快速流转。
间段的资源配置自动切换。 资源管理计划功能 资源管理计划功能支持业务资源自动切换。用户可以在控制台上添加资源管理计划,启动资源管理计划,查看资源管理计划执行日志,停止资源管理计划等操作。 资源管理计划功能支持业务资源自动切换。用户可以在控制台上添加资源管理计划,启动资源管理计划,
GaussDB(DWS)安全管理 GaussDB(DWS)安全管理 DWS可靠保护数据库中存储的数据,确保数据安全、完整、可用。 DWS可靠保护数据库中存储的数据,确保数据安全、完整、可用。 管理控制台 帮助文档 数据库安全 数据库系统存储着各类重要、敏感的数据,同时作为多用户的
调用GaussDB(DWS) API接口 调用GaussDB(DWS) API接口 数据仓库服务所提供的接口为自研接口,您可以使用数据仓库服务的可用区、集群管理、快照管理、事件管理、数据源、审计日志、资源管理、告警管理、连接管理、标签管理、配额管理、容灾管理、任务管理以及主机监控等功能。
全方位HA设计 安全 支持数据库加密,用户权限管理,敏感数据管理,数据全量/增量备份等功能保证数据安全 支持数据库加密,用户权限管理,敏感数据管理,数据全量/增量备份等功能保证数据安全 低成本 提供三种计费模式:包年/包月、按需计费和折扣套餐计费,根据业务需求灵活选择。 提供三种
境。 环境内网络互通,可以按环境维度来管理资源、部署服务,减少具体基础资源运维管理的复杂性。 同一个项目下,最多支持创建300个环境。 应用管理与运维平台虚拟机类型环境管理使用流程 由浅入深,带您轻松了解应用管理与运维平台虚拟机类型环境管理使用流程。 登录ServiceStage控制台
3副本冗余 3副本冗余 数据持久性高达99.9999999% 数据持久性高达99.9999999% 数据加密 数据加密 系统盘和数据盘均支持数据加密,保护数据安全 系统盘和数据盘均支持数据加密,保护数据安全 实时写入新数据 时序数据的写入是实时的,采集的数据反应客观信息,数据是随着时间推进不断产生,不存在旧数据更新场景。
Flink将MySQL数据导入DWS集群 MySQL 使用华为云DLI服务的Flink作业,将MySQL数据实时同步到GaussDB(DWS)。 操作简单。 使用CDM迁移数据到GaussDB(DWS) 数据库、NoSQL、文件系统、大数据平台 CDM提供同构/异构数据源之间批量数据迁移的功能
资源池仅提供逻辑隔离,专属资源池的隔离性、安全性要高于公共资源池。 专属资源池用户资源独享,在资源充足的情况下,作业是不会排队的;而公共资源池使用共享资源,在任何时候都有可能排队。 专属资源池支持打通用户的网络,在该专属资源池中运行的作业可以访问打通网络中的存储和资源。例如,在创
如何使用WeLink做好企业知识管理 企业的知识管理和学习平台 下载客户端 服务咨询 了解更多 WeLink知识产品介绍 WeLink知识是内置于华为云WeLink的一款知识管理和学习服务,助力企业快速搭建线上知识管理平台,高效发布政策公告、构建知识分享圈子,为员工创建知识经验分
DWS资源如何管理
功能描述
创建DWS表用于与输入流连接,从而生成相应的宽表。
前提条件
注意事项
创建Flink OpenSource SQL作业时,在作业编辑界面的“运行参数”处,“Flink版本”需要选择“1.12”,勾选“保存作业日志”并设置保存作业日志的 OBS 桶,方便后续查看作业日志。
语法格式
1 2 3 4 5 6 7 8 9 10 11 |
create table dwsSource ( attr_name attr_type (',' attr_name attr_type)* ) with ( 'connector' = 'gaussdb', 'url' = '', 'table-name' = '', 'username' = '', 'password' = '' ); |
参数说明
参数 |
是否必选 |
默认值 |
数据类型 |
说明 |
---|---|---|---|---|
connector |
是 |
无 |
String |
connector类型,需配置为'gaussdb'。 |
url |
是 |
无 |
String |
jdbc连接地址。 使用gsjdbc4驱动连接时,格式为:jdbc:postgresql://${ip}:${port}/${dbName} 。 使用gsjdbc200驱动连接时,格式为:jdbc:gaussdb://${ip}:${port}/${dbName}。 |
table-name |
是 |
无 |
String |
读取数据库中的数据所在的表名。 |
driver |
否 |
无 |
String |
jdbc连接驱动,默认为: org.postgresql.Driver。
|
username |
否 |
无 |
String |
数据库认证用户名,需要和'password'一起配置。 |
password |
否 |
无 |
String |
数据库认证密码,需要和'username'一起配置。 |
scan.partition.column |
否 |
无 |
String |
用于对输入进行分区的列名。 与scan.partition.lower-bound、scan.partition.upper-bound、scan.partition.num必须同时存在或者同时不存在。 |
scan.partition.lower-bound |
否 |
无 |
Integer |
第一个分区的最小值。 与scan.partition.column、scan.partition.upper-bound、scan.partition.num必须同时存在或者同时不存在。 |
scan.partition.upper-bound |
否 |
无 |
Integer |
最后一个分区的最大值。 与scan.partition.column、scan.partition.lower-bound、scan.partition.num必须同时存在或者同时不存在。 |
scan.partition.num |
否 |
无 |
Integer |
分区的个数。 与scan.partition.column、scan.partition.upper-bound、scan.partition.upper-bound必须同时存在或者同时不存在。 |
scan.fetch-size |
否 |
0 |
Integer |
每次从数据库拉取数据的行数。默认值为0,表示不限制。 |
scan.auto-commit |
否 |
true |
Boolean |
设置自动提交标志。 它决定每一个statement是否以事务的方式自动提交。 |
lookup.cache.max-rows |
否 |
无 |
Integer |
维表配置,缓存的最大行数,超过该值时,最先添加的数据将被标记为过期。 默认表示不使用该配置。 |
lookup.cache.ttl |
否 |
无 |
Duration |
维表配置,缓存超时时间,超过该时间的数据会被剔除。格式为:{length value}{time unit label},如123ms, 321s,支持的时间单位包括: d,h,min,s,ms等,默认为ms。 默认表示不使用该配置。 |
lookup.max-retries |
否 |
3 |
Integer |
维表配置,数据拉取最大重试次数。 |
pwd_auth_name |
否 |
无 |
String |
DLI侧创建的Password类型的跨源认证名称。 使用跨源认证则无需在作业中配置账号和密码。 |
示例
从Kafka源表中读取数据,将DWS表作为维表,并将二者生成的宽表信息写入Kafka结果表中,其具体步骤如下:
- 参考增强型跨源连接,在DLI上根据DWS和Kafka所在的虚拟 私有云 和子网分别创建相应的增强型跨源连接,并绑定所要使用的Flink弹性资源池。
- 设置DWS和Kafka的安全组,添加入向规则使其对Flink的队列网段放通。参考测试地址连通性分别根据DWS和Kafka的地址测试队列连通性。若能连通,则表示跨源已经绑定成功,否则表示未成功。
- 连接DWS数据库实例,在DWS中创建相应的表,作为维表,表名为area_info,SQL语句如下:
create table public.area_info( area_id VARCHAR, area_province_name VARCHAR, area_city_name VARCHAR, area_county_name VARCHAR, area_street_name VARCHAR, region_name VARCHAR);
- 连接DWS数据库实例,向DWS维表area_info中插入测试数据,其语句如下:
insert into area_info (area_id, area_province_name, area_city_name, area_county_name, area_street_name, region_name) values ('330102', 'a1', 'b1', 'c1', 'd1', 'e1'), ('330106', 'a1', 'b1', 'c2', 'd2', 'e1'), ('330108', 'a1', 'b1', 'c3', 'd3', 'e1'), ('330110', 'a1', 'b1', 'c4', 'd4', 'e1');
- 参考创建Flink OpenSource作业,创建flink opensource sql作业,输入以下作业运行脚本,提交运行作业。该作业脚本将Kafka作为数据源,DWS作为维表,数据输出到Kafka结果表中。
注意:创建作业时,在作业编辑界面的“运行参数”处,“Flink版本”选择“1.12”,勾选“保存作业日志”并设置保存作业日志的OBS桶,方便后续查看作业日志。如下脚本中的加粗参数请根据实际环境修改。
CREATE TABLE orders ( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string, proctime as Proctime() ) WITH ( 'connector' = 'kafka', 'topic' = 'KafkaSourceTopic', 'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort', 'properties.group.id' = 'dws-order', 'scan.startup.mode' = 'latest-offset', 'format' = 'json' ); --创建地址维表 create table area_info ( area_id string, area_province_name string, area_city_name string, area_county_name string, area_street_name string, region_name string ) WITH ( 'connector' = 'gaussdb', 'driver' = 'org.postgresql.Driver', 'url' = 'jdbc:gaussdb://DwsAddress:DwsPort/DwsDbName', 'table-name' = 'area_info', 'username' = 'DwsUserName', 'password' = 'DwsPassword', 'lookup.cache.max-rows' = '10000', 'lookup.cache.ttl' = '2h' ); --根据地址维表生成详细的包含地址的订单信息宽表 create table order_detail( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string, area_province_name string, area_city_name string, area_county_name string, area_street_name string, region_name string ) with ( 'connector' = 'kafka', 'topic' = 'KafkaSinkTopic', 'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort', 'format' = 'json' ); insert into order_detail select orders.order_id, orders.order_channel, orders.order_time, orders.pay_amount, orders.real_pay, orders.pay_time, orders.user_id, orders.user_name, area.area_id, area.area_province_name, area.area_city_name, area.area_county_name, area.area_street_name, area.region_name from orders left join area_info for system_time as of orders.proctime as area on orders.area_id = area.area_id;
- 连接Kafka集群,向kafka中source topic中插入如下测试数据:
{"order_id":"202103241606060001", "order_channel":"appShop", "order_time":"2021-03-24 16:06:06", "pay_amount":"200.00", "real_pay":"180.00", "pay_time":"2021-03-24 16:10:06", "user_id":"0001", "user_name":"Alice", "area_id":"330106"} {"order_id":"202103251202020001", "order_channel":"miniAppShop", "order_time":"2021-03-25 12:02:02", "pay_amount":"60.00", "real_pay":"60.00", "pay_time":"2021-03-25 12:03:00", "user_id":"0002", "user_name":"Bob", "area_id":"330110"} {"order_id":"202103251505050001", "order_channel":"qqShop", "order_time":"2021-03-25 15:05:05", "pay_amount":"500.00", "real_pay":"400.00", "pay_time":"2021-03-25 15:10:00", "user_id":"0003", "user_name":"Cindy", "area_id":"330108"}
- 连接Kafka集群,读取kafka中sink topic中数据,结果参考如下:
{"order_id":"202103241606060001","order_channel":"appShop","order_time":"2021-03-24 16:06:06","pay_amount":200.0,"real_pay":180.0,"pay_time":"2021-03-24 16:10:06","user_id":"0001","user_name":"Alice","area_id":"330106","area_province_name":"a1","area_city_name":"b1","area_county_name":"c2","area_street_name":"d2","region_name":"e1"} {"order_id":"202103251202020001","order_channel":"miniAppShop","order_time":"2021-03-25 12:02:02","pay_amount":60.0,"real_pay":60.0,"pay_time":"2021-03-25 12:03:00","user_id":"0002","user_name":"Bob","area_id":"330110","area_province_name":"a1","area_city_name":"b1","area_county_name":"c4","area_street_name":"d4","region_name":"e1"} {"order_id":"202103251505050001","order_channel":"qqShop","order_time":"2021-03-25 15:05:05","pay_amount":500.0,"real_pay":400.0,"pay_time":"2021-03-25 15:10:00","user_id":"0003","user_name":"Cindy","area_id":"330108","area_province_name":"a1","area_city_name":"b1","area_county_name":"c3","area_street_name":"d3","region_name":"e1"}
常见问题
- Q:若Flink作业日志中有如下报错信息,应该怎么解决?
java.io.IOException: unable to open JDBC writer ... Caused by: org.postgresql.util.PSQLException: The connection attempt failed. ... Caused by: java.net.SocketTimeoutException: connect timed out
A:应考虑是跨源没有绑定,或者跨源没有绑定成功。- 参考增强型跨源连接章节,重新配置跨源。参考DLI跨源连接DWS失败进行问题排查。
- Q:如果该DWS表在某schema下,则应该如何配置?
A:如下示例是使用schema为dbuser2下的表area_info:
--创建地址维表 create table area_info ( area_id string, area_province_name string, area_city_name string, area_county_name string, area_street_name string, region_name string ) WITH ( 'connector' = 'gaussdb', 'driver' = 'org.postgresql.Driver', 'url' = 'jdbc:postgresql://DwsAddress:DwsPort/DwsDbname', 'table-name' = 'dbuser2.area_info', 'username' = 'DwsUserName', 'password' = 'DwsPassword', 'lookup.cache.max-rows' = '10000', 'lookup.cache.ttl' = '2h' );
DWS资源如何管理常见问题
更多常见问题 >>-
GaussDB(DWS)提供了资源管理功能,用户可以根据自身业务将资源按需划分成不同的资源池,不同资源池之间资源互相隔离。再通过关联数据库用户将其关联至不同的资源池,用户SQL查询时将根据“用户-资源池”的关联关系将查询转至资源池中执行。通过指定资源池上可并行运行的查询数、单查询内存上限以及资源池可使用的内存和CPU资源,从而实现对不同业务之间的资源限制和隔离,满足数据库混合负载需求,保证执行查询时有充足的系统资源,确保查询性能。
-
新一代、全场景数据仓库,一站式分析,性能、容量无限扩展。守护高价值数据、创享高价值分析,企业数字化转型坚实伙伴。 DWS可靠保护数据库中存储的数据,确保数据安全、完整、可用。
-
数据仓库服务所提供的接口为自研接口。通过配合使用数据仓库服务自研接口,您可以使用数据仓库服务的可用区、集群管理、快照管理、事件管理、数据源、审计日志、资源管理、告警管理、连接管理、标签管理、配额管理、容灾管理、任务管理以及主机监控等功能。
-
数据仓库服务(Data Warehouse Service,简称DWS)是一种基于公有云基础架构和平台的在线数据处理数据库,提供即开即用、可扩展且完全托管的分析型数据库服务。DWS是基于华为融合数据仓库GaussDB产品的云原生服务,兼容标准ANSI SQL 99和SQL 2003,同时兼容PostgreSQL/Oracle数据库生态,为各行业PB级海量大数据分析提供有竞争力的解决方案。
-
应用管理与运维平台(ServiceStage)是面向企业的应用管理与运维平台,提供应用发布、部署、监控与运维等一站式解决方案。支持Java、Node.js、Docker、Tomcat等运行环境。支持Apache ServiceComb Java Chassis(Java Chassis)、Spring Cloud等微服务应用,让企业应用上云更简单。
-
数据仓库DWS将OBS上存储的结构化数据映射为外部表,从而利用数据库SQL引擎的能力对OBS上的数据进行分析。在数据分散的情况下, 通过跨集群协同分析, 支撑周期性业务分析, 无需做全量数据搬移和转化, 提升分析效率
更多相关专题
更多精彩内容
域名注册服务机构许可:黔D3-20230001 代理域名注册服务机构:新网、西数