检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ar(n), 代表该字段最大可容纳n个长度的数据。无论哪种类型,可设置的最大长度都不得超过10485760(即10MB)。 当数据长度超过指定的长度n时,会抛出错误"value too long"。也可通过指定数据类型,使超过长度的数据自动截断。 示例: 创建表t1,指定其字段的字符类型。
GeminiDB Cassandra支持手动创建库表级备份。当数据库或表被恶意或误删除,可依赖实例的备份保障数据安全。 使用须知 如需开通创建库表级备份的权限,您可以联系客服申请。 操作步骤 登录管理控制台。 在服务列表中选择“数据库 > 云数据库 GeminiDB Cassandra 接口”。
ALM-50222 BE中指定数据目录的磁盘状态异常 告警解释 系统每30秒周期性检查BE中指定数据目录的磁盘状态,当检查到该值不等于1(1表示正常,0表示异常)时产生该告警。BE中指定数据目录的磁盘状态恢复正常,告警清除。 告警属性 告警ID 告警级别 是否可自动清除 50222
可选参数,程序执行的关键参数,多个参数间使用空格隔开。 配置格式:程序类名 数据输入路径 数据输出路径 程序类名:由用户程序内的函数指定,MRS只负责参数的传入。 数据输入路径:通过单击“HDFS”或者“OBS”选择或者直接手动输入正确路径。 数据输出路径:数据处理结果输出路径,需输入一个不存在的目录。最多为
Spark从HBase读取数据再写入HBase样例程序(Scala) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后把table1表的数据经过分析后写到HBase table2表中。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei
Spark从HBase读取数据再写入HBase样例程序(Java) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后把table1表的数据经过分析后写到HBase table2表中。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei
训练数据: 训练数据列数一致,总数据量不少于100条不同数据(有一个特征取值不同,即视为不同数据)。 训练数据列内容不能有时间戳格式(如:yy-mm-dd、yyyy-mm-dd等)的数据。 如果某一列的取值只有一种,会被视为无效列。请确保标签列的取值至少有两个且无数据缺失。
OPS:Operation Per Second,数据库每秒执行的操作数。 不同业务模型和实例规格下,基于3.4版本的数据库实例,根据表2预置小数据量数据,测试的OPS数据,详见表1中加粗内容。 表1 弱一致性,且预置小数据量数据下的OPS 实例规格 业务模型编号 s1 s6 s5
配置发布免审批 租户管理员可以管理该租户下的用户在申请发布数据集后,发布申请是否需要人工审批。 前提条件 登录用户为租户管理员。 打开发布免审批开关 在数据集服务界面的菜单栏右侧,单击。 在“审批配置”界面,在“免审批配置”下的“发布免审批”右侧,单击。 将发布免审批开关打开后,该租户下具有“Data
GaussDB(DWS)的OBS外表与GDS外表支持的数据格式有什么区别? OBS与GDS外表支持格式文件区别如下: OBS导入支持ORC、TEXT、JSON、CSV、CARBONDATA、PARQUET文件格式,导出支持ORC、CSV、TEXT文件格式,缺省值为TEXT。 GD
描述 data data object data,统一的返回结果的最外层数据结构。 表5 data 参数 参数类型 描述 value BizMetricVO object value,统一的返回结果的外层数据结构。 表6 BizMetricVO 参数 参数类型 描述 id String
SAP监控大屏配置应用监控成功但没有数据 如果出现大屏配置应用监控成功但没有数据,您可以根据表1中列举的原因进行排除。 表1 故障排除 可能原因 排除方案 大屏配置错误,或配置的应用已删除。 进入编辑模式,检查应用、应用SID、数据库应用、数据库应用SID配置是否符合规划,如有错误,修正并更新配置即可。
String 请求状态 errorMsg String 失败描述 errorCode String 错误码 状态码 具体请参考状态码。 父主题: 数据解析
GaussDB数据库一个汉字占几个字节? 答:取决于数据库的字符集编码,GBK字符集一个汉字占2个字节,UTF8字符集一个汉字占3个字节。 父主题: FAQ
Kafka实时入库到GaussDB(DWS) 通过数据湖探索服务 DLI Flink作业将Kafka的消费数据实时同步至GaussDB(DWS)数据仓库,实现Kafka实时入库到GaussDB(DWS)的过程。 了解DLI请参见数据湖产品介绍 。 了解Kafka请参见分布式消息服务Kafka产品介绍。
进入数据开发页面。 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 单击作业目录中的,选择“显示复选框”。 勾选需要解锁的作业,单击 > 批量解锁。弹出“解锁成功”提示。 图1 批量解锁 父主题: (可选)管理作业
获取方式: 账号登录KooSearch体验平台,在左侧导航栏选择:"知识库管理" ,在此界面获取"知识库ID"字段的值,表示该知识库在向量数据库中存储的ID,具有唯一性 最小长度:1 最大长度:64 chat_id 否 String 对话ID 最小长度:1 最大长度:64 messages
资源配置说明(数据建模引擎运行SDK) 通用配置(数据建模引擎运行SDK) 自定义配置(数据建模引擎运行SDK) 父主题: 部署数据建模引擎运行SDK
输入参数列表,列表中的每个参数为“name,value”结构,请参考inputs数据结构参数说明。在“from-config-values”数据结构中,不同的源连接类型有不同的“inputs”参数列表,请参见源端作业参数说明下的章节。在“to-config-values”数据结构中,不同的目的连接类型有不同的“inp
为什么CDL任务执行后Hudi中没有接收到数据 现象描述 抓取数据到Hudi中的CDL任务运行后,Kafka中有相关数据,Spark的RDD处理中无记录,Hudi中没有相关数据,并且Yarn日志报错:TopicAuthorizationException: No authorized