检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
关键字 参数 描述 LIMIT 对查询结果进行限制。 number 参数仅支持INT类型。 注意事项 所查询的表必须是已经存在的表,否则会出错。 查询的tagv必须是已经有的值,否则会出错。 示例 查询表opentsdb_table中的数据。 SELECT * FROM opentsdb_table
project_id 是 String 项目ID。获取方法请参见获取项目ID。 graph_name 是 String 图名称。 label_name 是 String Label名称。 请求参数 表2 Body参数说明 参数 是否必选 类型 说明 properties 是 Object
期去哪里可以查询或设置? 解决方法 在用户或业务用户详情页面中,查看用户所拥有的权限。 如果是System Administrator Profile,默认是30分钟,无法修改。 如果是其他权限,请执行2。 通过所分配Profile权限的“访问凭证时长”来控制session有效期
onitor_type只能是file monitor_internel u32 可选参数,资源监视间隔时间,单位是秒,默认值是15,monitor_type只能是resource outputfile String 监控数据文件名称,写入监控数据的路径是<workspace>/<outputfile>
连接OBS 介绍 DIS可以向对象存储服务(Object Storage Service,简称OBS)上传数据。 前提条件 已参考自动创建委托创建IAM委托,授权DIS服务去访问用户的OBS。 数据转储 用户在新增转储任务时可设置”数据转储地址”。当“数据转储”设置为“OBS”时,DIS会将通道数据周期性导入OBS。
String 类型:[image/audio/3d/video]。 hash String 对应资源的hash。 url String 对应资源存储位置。 properties map[string]Property 属性字典。根据业务自定义,例如文件大小,图片tag标签,其他业务属性等。
HBase/CloudTable增量迁移 使用CDM导出HBase(包括MRS HBase、FusionInsight HBase、Apache HBase)或者表格存储服务(CloudTable)的数据时,支持导出指定时间段内的数据,配合CDM的定时任务,可以实现HBase/CloudTable的增量迁移。
分析数据 通过DLI直接对OBS数据进行贸易统计分析。 前提条件 DLI创建OBS外表,对OBS表数据存储格式有所要求: 使用DataSource语法创建OBS表时,支持orc,parquet,json,csv,carbon,avro类型。 使用Hive语法创建OBS表时,支持TEXTFILE
exceeds temp_file_limit (%dkB)" SQLSTATE: 53400 错误原因:临时文件大小达到上限。 解决办法:1. 对存储过程中临时表执行ANALYZE。2. 对数据量变化较大的表执行VACUUM FULL。 GAUSS-04173: "Invalid socket
table_name 现有表名。 new_table_name 现有表名的新表名。 注意事项 并行运行的查询(需要使用表名获取路径,以读取CarbonData存储文件)可能会在此操作期间失败。 不允许二级索引表重命名。 示例 ALTER TABLE carbon RENAME TO carbondata;
读取Hudi cow表视图 实时视图读取(Hive,SparkSQL为例):直接读取Hive里面存储的Hudi表即可,${table_name}表示表名称。 select count(*) from ${table_name}; 实时视图读取(Spark dataSource A
命名空间标签管理 操作场景 命名空间用于管理多个具有关联属性的镜像,不直接存储容器镜像,可对应企业内部的一个产品项目或部门。当公司部门繁多时,我们可以通过添加命名空间标签,方便后续通过标签对命名空间进行查找及管理。 前提条件 命名空间已创建 约束与限制 表1 单个命名空间最多可添加的标签数量
Kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 数据规划 StructuredStreaming样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户)。 确保集群安装完成,包括HDFS、Yarn、Spark和Kafka。
kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 数据规划 StructuredStreaming样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有kafka权限用户)。 确保集群安装完成,包括HDFS、Yarn、Spark和Kafka。
Kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 数据规划 StructuredStreaming样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户)。 确保集群安装完成,包括HDFS、Yarn、Spark和Kafka。
Kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 数据规划 StructuredStreaming样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户)。 确保集群安装完成,包括HDFS、Yarn、Spark和Kafka。
HBase/CloudTable增量迁移 使用CDM导出HBase(包括MRS HBase、FusionInsight HBase、Apache HBase)或者表格存储服务(CloudTable)的数据时,支持导出指定时间段内的数据,配合CDM的定时任务,可以实现HBase/CloudTable的增量迁移。
TEXTFILE类型文件使用ARC4压缩时查询结果乱码 问题现象 Hive查询结果表做压缩存储(ARC4),对结果表做select * 查询时返回结果为乱码。 可能原因 Hive默认压缩格式不是ARC4格式或者未开启输出压缩。 解决方案 在select结果乱码时,在beeline中进行如下设置。
若object_name为包名,则为包中函数或存储过程名称,否则为空。 object_id oid 存储过程、函数、触发器或包的OID。 subprogram_id numeric 包中函数或存储过程的位置。 overload character varying(40) 表示该函数是该名称的第n个重载函数。
PG_PARTITION PG_PARTITION系统表存储数据库内所有分区表(partitioned table)、分区(table partition)、分区上toast表和分区索引(index partition)四类对象的信息。分区表索引(partitioned inde