检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
也可以自定义名称。 元数据连接 根据实际需求,选择已创建的元数据连接类型。 数据库 填写需要进行元数据同步的数据库名称。 须知: 元数据连接为MaxCompute类型时,该参数为必填参数,不能为空。其他元数据连接类型,该参数为可选参数,不填则代表同步全部数据库。 并发线程数 设置
Hudi数据表Archive规范 Archive(归档)是为了减轻Hudi读写元数据的压力,所有的元数据都存放在这个路径:Hudi表根目录/.hoodie目录,如果.hoodie目录下的文件数量超过10000就会发现Hudi表有非常明显的读写时延。 规则 Hudi表必须执行Archive。
Array of DatasetListVo objects 数据集列表 表4 DatasetListVo 参数 参数类型 描述 id String 数据集id。 支持数字,英文字母,下划线,长度32。 name String 数据集名称 connector_name String 连接器名称
操作下的“配置数据存储”。 进入“配置数据存储”页面。 在“配置数据存储”页面,根据页面提示设置参数,为企业路由器实例配置OBS存储。 企业路由器连接 在企业路由器列表中,单击展开目标企业路由器的连接列表,并单击连接所在行的操作下的“配置数据存储”。 进入“配置数据存储”页面。
导入导出Hive表/分区数据 操作场景 在大数据应用场景中,往往存在将Hive中的数据表迁移到另一个集群上,使用Hive的导入导出命令可以实现表级别数据迁移,即可使用Export命令将源集群的Hive表导出到目标集群的HDFS中,再在目标集群使用Import命令将导出的数据导入到相应的Hive表中。
修订记录 表1 修订记录 发布日期 修订记录 2023-2-15 第一次正式发布。
Hive校验结果中的源端数据和目的端数据显示为“0”或“-1” 问题描述 对Hive进行大数据校验,校验任务执行成功,查看校验结果,发现部分字段的“源端数据”和“目的端数据”显示为“0”或“-1”。 问题分析 出现该问题可能是因为数值超出了Hive支持的数值范围。 在数据处理中,如果遇到
xDM-F数据同步规则说明 数据同步规则说明 在进行xDM-F数据同步时,遵循以下数据同步规则: 仅会同步xDM-F同步任务清单中所选应用运行态及对应xDM-F租户下的数据,同步过来的模型和实例数据将被存放在LinkX-F系统中的指定租户下。可以通过LinkX-F实体的“模型来源
DDoS防护是华为云默认开启的防护,所有公网的入口流量都会被DDos防护。 DDoS高防(Advanced Anti-DDoS,AAD)是基于Anti-DDoS清洗设备和大数据运营平台构建的DDoS防护服务,通过流量转发方式对用户源站进行隐藏保护,是企业重要业务连续性的有力保障,用户可以通过修改DNS解析或对
= YES; [mShareServiceController setPolicy:self.sharepolicy]; 注意事项 连接设备之后投屏之前调用接口 父主题: 典型场景
通过IP限速限制网站访问频率 当WAF与访问者之间并无代理设备时,通过源IP来检测攻击行为较为精确,建议直接使用IP限速的方式进行访问频率限制。 实践案例 竞争对手控制数台主机,持续向网站“www.example.com”发起HTTP Post请求,网站并无较大的负载能力,网站连
查询已经订阅的数据集 功能介绍 数据消费者查看已经订阅下载成功的数据集信息。 URI URI格式 GET /softcomai/datalake/v1.0/subscribtions?pageNum=1&pagesize=10 参数说明 无。 请求 请求样例 GET https:
示例2:创建数据迁移任务 场景描述 本章节指导用户通过API创建数据迁移任务。API的调用方法请参见如何调用API。 本文使用在线迁移、全量迁移的方式为例创建数据迁移任务,源实例与目标实例是华为云上处于相同VPC的Redis。 涉及接口 创建数据迁移任务,涉及的API如下: 查询
SEC08-02 主动通知数据主体 SEC08-03 数据主体的选择和同意 SEC08-04 数据收集合规性 SEC08-05 数据使用、留存和处置合规性 SEC08-06 向第三方披露个人数据合规性 SEC08-07 数据主体有权访问其个人隐私数据 父主题: 数据安全与隐私保护
卷的不同文件夹。如:tmp,表示容器中挂载路径下的数据会存储在存储卷的tmp文件夹中。不填写时默认为根路径。 权限 只读:只能读容器路径中的数据卷。 读写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失。 其余信息都配置完成后,单击“创建工作负载”。
删除数据场景片段 功能介绍 删除数据场景片段 URI DELETE /v1.0/{project_id}/data/scenario/segments/{id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目id,获取方法请参见获取项目ID
数据安全中心(DSC) 数据安全中心服务(Data Security Center,DSC)是新一代的云化数据安全平台,提供数据分级分类、数据安全风险识别、数据水印溯源和数据静态脱敏等基础数据安全能力,通过数据安全总览整合数据安全生命周期各阶段状态,对外整体呈现云上数据安全态势。
向Phoenix表中写入数据 功能简介 使用Phoenix实现写数据。 代码样例 以下代码片段在com.huawei.bigdata.hbase.examples包的“PhoenixSample”类的testPut方法中。 /** * Put data */ public
向Doris表中插入数据 本章节介绍向Doris表中插入数据样例代码。 以下代码片段在“JDBCExample”类中。 以Java JDBC方式执行SQL语句在集群的dbName.tableName表中插入数据。 String insertTableSql = "insert into
Server数据连接 表1 SQL Server数据连接参数 参数名 说明 名称 数据连接的名称,只能包含英文字母、中文、数字、“-”、“_”,且长度为1~32个字符。 域名 填写数据库的地址。 端口 填写数据库端口。 用户名 填写数据库的用户名。该数据库用户需要有数据表的读取权限,以及对元数据的读取权限。