检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
费用账单 您可以在“费用中心 > 账单管理”查看资源的费用账单,以了解该资源在某个时间段的使用量和计费信息。 账单上报周期 按需计费模式的资源按照固定周期上报使用量到计费系统进行结算。按需计费模式产品根据使用量类型的不同,分为按小时、按天、按月三种周期进行结算,具体扣费规则可以参
(可选)购买DataArts Studio功能增量包 DataArts Studio采用基础包+增量包的计费模式。如果购买的基础包无法满足您的使用需求,您可以额外购买增量包。在购买增量包前,请确保您已购买DataArts Studio实例。 增量包大体可分为功能增量包与规格增量包,功能增量包用于拓展DataArts
管理用户 在OneAccess管理门户,您可以进行添加、编辑、修改、删除用户等操作。 如果需要添加大量用户,建议采用身份源同步、数据导入的方式批量添加。 身份源同步:从身份源同步用户数据到OneAccess,在高级配置中可以对同步的处理逻辑进行灵活配置,实现将上游身份源数据同步至
从Kafka读取数据写入到RDS 本指导仅适用于Flink 1.12版本。 场景描述 该场景为根据商品的实时点击量,获取每小时内点击量最高的3个商品及其相关信息。商品的实时点击量数据为输入源发送到Kafka中,再将Kafka数据的分析结果输出到RDS中。 例如,输入如下样例数据:
组装“编辑设备”页面 组装页面包括拼装页面组件、定义组件的事件代码,并通过公共接口调用“编辑设备”脚本。 页面分析 如果要实现将前端页面上输入的设备信息保存到数据库中,需要创建与前端组件绑定的自定义模型,以及与后端逻辑关联的服务模型,如图2所示。 图1 编辑设备页面预览 页面上包
操作步骤 前提条件 云侧 请确认虚拟私有云VPC已经创建完成。如何创建虚拟私有云VPC,请参见创建虚拟私有云和子网。 请确认虚拟私有云VPC的安全组规则已经配置,ECS通信正常。如何配置安全组规则,请参见安全组规则。 请确认企业路由器ER已经创建完成。如何创建企业路由器ER,请参见企业路由器ER相关资料。
支持的数据源(2.10.0.300) 数据集成有两种迁移方式,支持的数据源有所不同: 表/文件迁移:适用于数据入湖和数据上云场景下,表或文件级别的数据迁移,请参见表/文件迁移支持的数据源类型。 整库迁移:适用于数据入湖和数据上云场景下,离线或自建数据库整体迁移场景,请参见整库迁移支持的数据源类型。
支持的数据源(2.10.0.300) 数据集成有两种迁移方式,支持的数据源有所不同: 表/文件迁移:适用于数据入湖和数据上云场景下,表或文件级别的数据迁移,请参见表/文件迁移支持的数据源类型。 整库迁移:适用于数据入湖和数据上云场景下,离线或自建数据库整体迁移场景,请参见整库迁移支持的数据源类型。
购买并连接GeminiDB Mongo实例 本章节以Linux系统为例,介绍从购买到内网连接GeminiDB Mongo实例的操作步骤。 步骤一:购买GeminiDB Mongo实例 步骤二:购买ECS 步骤三:连接GeminiDB Mongo实例 步骤一:购买GeminiDB Mongo实例
com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html。 通过Maven方式引入apache版本。代码示例以7.6.2版本为例。 其中7.6.2为Elasticsearch Java客户端的版本号。 <dependency>
VPN连接状态显示“未连接” 故障现象 在“虚拟专用网络 > 企业版-VPN连接”页面,VPN连接状态显示为“未连接”。 可能原因 VPN连接两端的连接配置不正确。 华为云安全组和客户设备侧ACL配置不正确。 IPsec-VPN连接协商失败或连接断连。 处理步骤 检查VPN连接两端的连接配置。
--non-lock-table 该参数仅供软件间接口调用。 --quote-all-identifiers 强制对所有标识符加引号。为了向后续版本迁移,且其中可能涉及引入额外关键词,在转储相应数据库时该选项会有帮助。 M-Compatibility模式数据库不支持该选项。 --section=SECTION
创建VPN网关 操作场景 您需要将VPC中的弹性云服务器和您的数据中心或私有网络连通,需要先创建VPN网关。按需计费购买VPN网关时,可以同时购买一条与其关联的VPN连接。 前置条件 请确认虚拟私有云VPC已经创建完成。如何创建虚拟私有云VPC,请参见创建虚拟私有云和子网。 请确
查询任务列表 功能介绍 查询任务列表。 URI POST /services/workflow/queryTaskList/{pageSize}/{curPage} 示例接口地址:{域名(有文根需带文根)}/pdmcore/ipdcworkflowservice/services
从Kafka读取数据写入到DWS 本指导仅适用于Flink 1.12版本。 场景描述 该场景为对汽车驾驶的实时数据信息进行分析,将满足特定条件的数据结果进行汇总。汽车驾驶的实时数据信息为数据源发送到Kafka中,再将Kafka数据的分析结果输出到DWS中。 例如,输入如下样例数据:
从Kafka读取数据写入到Elasticsearch 本指导仅适用于Flink 1.12版本。 场景描述 本示例场景对用户购买商品的数据信息进行分析,将满足特定条件的数据结果进行汇总输出。购买商品数据信息为数据源发送到Kafka中,再将Kafka数据的分析结果输出到Elasticsearch中。
同步执行工作流 功能介绍 以同步执行方式启动工作流(仅快速模式工作流支持),暂不支持国际站局点调用 调用方法 请参见如何调用API。 URI POST /v2/{project_id}/fgs/workflows/{workflow_id}/sync-executions 表1 路径参数
测试后端API 功能介绍 测试后端API是否可用。 URI POST /v1/{project_id}/apic/instances/{instance_id}/livedata-apis/test 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String
迁移方案概览 实时迁移是指在数据复制服务能够同时连通源数据库和目标数据库的情况下,只需要配置迁移的源、目标数据库实例及迁移对象即可完成整个数据迁移过程,再通过多项指标和数据的对比分析,帮助确定合适的业务割接时机,实现最小化业务中断的数据库迁移。 通过增量迁移技术,能够最大限度允许
配置SNMP Trap参数 典型场景 配置SNMP Trap参数。 接口功能 配置SNMP Trap参数。 接口约束 该接口仅支持租户视图或msp代维视图下,角色为“Open Api Operator”的用户访问,必须在用户会话建立后使用。 调用方法 POST URI /cont