检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查看事件详情 事件详情展示了创建当前事件的SQL内容。 操作步骤 登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 单击页面左上角的,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 在左侧导航栏中,单击“开发工具”,进入开发工具页面。 您也可以在产品概
PG_COLLATION PG_COLLATION系统表描述可用的排序规则,本质上从一个SQL名字映射到操作系统本地类别。 表1 PG_COLLATION字段 名字 类型 引用 描述 oid oid - 行标识符(隐藏属性,必须明确选择才会显示)。 collname name -
DBE_PLDEBUGGER.next 执行存储过程中当前的sql,返回执行的下一条的行数和对应query。 表1 next返回值列表 名称 类型 描述 funcoid OUT oid 函数id funcname OUT text 函数名 lineno OUT integer 当前调试运行的下一行行号
publish, int cycle, int replace, int startPos); 【功能说明】 开始播放音频文件。当前支持本端播放和在线播放。支持的格式包括:mp3、flac、mp4、m4a、aac、3gp、mkv、wav、amr、pcm、ogg。 【请求参数】 fullF
进入云硬盘页面。 单击“购买磁盘”。 云硬盘必须挂载给同一个可用区的云服务器。 云硬盘挂载至云服务器后,需要登录云服务器初始化云硬盘,即格式化云硬盘,之后云硬盘才可以正常使用。 购买云硬盘 设置区域、可用区、是否挂载到云服务器、计费模式和数据源 ① 选择计费模式、区域和可用区。此
代码配置模式 格式化编辑指通过编辑json格式代码,完成知识映射配置。 前提条件 已创建图谱并选择图谱规格,请参见购买知识图谱。 已创建并选择本体,详情请参见配置图谱本体。 已完成数据源配置,详情请参见配置数据源。 已完成信息抽取配置,详情请参见配置信息抽取。 操作步骤 在普通配
Spark客户端和服务端权限参数配置说明 SparkSQL权限管理功能相关的配置如下所示,客户端与服务端的配置相同。要使用表权限功能,需要在服务端和客户端添加如下配置。 “spark-defaults.conf”配置文件 表1 参数说明(1) 参数 描述 默认值 spark.sql.authorization
Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 接口约束 仅MySQL迁移和MySQL灾备支持调用。 任务job_direction为up时才能调用,任务状态为CONFIGURATION才能调用。 需要先调用获取数据
维度统计信息。 slow_sql:慢SQL详情。 error_sql: 回放异常SQL详情。 slow_sql_template:慢SQL统计信息。 error_sql_template:异常SQL统计信息。 replaying_sql:正在回放SQL详情。 error_clas
率为92%,预留的8%空间用于更新的扩展,也可以用于TD列表的扩展空间。fillfactor的配置和详细描述参见《开发指南》的“SQL参考 > SQL语法 > CREATE TABLE”章节。 用户需要结合业务分析是否需要手动配置fillfactor。如果表数据导入后只有查询或定
Spark 3.3.1。 本节操作介绍如何升级作业的引擎版本。 SQL作业: SQL作业不支持配置引擎版本,需要您重新新建队列执行SQL作业,新创建的队列会默认使用新版本的Spark引擎。 Flink OpenSource SQL作业: 登录DLI管理控制台。 选择“作业管理 > Fli
Studio服务进行作业开发请参考《数据治理中心用户指南》。 Spark SQL语法创建表时是否支持定义主键 Spark SQL语法不支持定义主键。 DLI Spark jar作业是否能访问DWS跨源表? 可以访问。 详细操作请参考访问DWS和访问SQL库表。 如何查看Spark内置依赖包的版本? DL
1.x_odbc_driver_for_xxx_xxx.zip。Linux环境下,开发应用程序要用到unixODBC提供的头文件(sql.h、sqlext.h等)和库libodbc.so。这些头文件和库可从unixODBC-2.3.0的安装包中获得。 Windows下的ODBC包
概览是对组件所有实例的数据进行汇总,监控数据包括总请求量、平均响应时间、接口错误率、慢调用、慢SQL、异常数量。慢调用展示最大耗时的五条数据、错误调用展示错误次数最多的五条数据、慢sql展示最大耗时的五条数据,异常展示总次数最多的五条数据。 登录管理控制台。 单击左侧,选择“管理与监管>
DataCheck基本功能 DataCheck基本功能 支持源端为DWS,MySQL,PostgreSQL数据库与目标端为DWS数据库的数据校验。 支持通用类型字段校验:数值、时间、字符类型。 支持校验级别设置:包括high、middle、low三种。 支持指定schema、表名、列名进行校验。
NULL; SQLHANDLE h_stmt = NULL; void print_error() { SQLCHAR Sqlstate[SQL_SQLSTATE_SIZE+1]; SQLINTEGER NativeError; SQLCHAR
通过调用SQLSetEnvAttr 设置连接池参数,其中的环境句柄应设置为 null,这使得 SQL_ATTR_CONNECTION_POOLING 成为进程级属性。目前在Windows上支持配置SQL_ATTR_CONNECTION_POOLING为以下两种值: SQL_CP_OFF:默认参数设置,禁用连接池。
将大表数据打散到Join中,提高Flink SQL易用性,增强作业稳定性。 图1 Flink作业大小表Join 在使用Flink SQL时,该特性通过hints方法指定Join的左表或右表为广播表,另一张表为rebalance表,SQL语句示例如下,分别以A\C作为小表示例: 以A表作为广播表
函数工程打包规范 打包规范说明 函数除了支持在线编辑代码,还支持上传ZIP、JAR、引入OBS文件等方式上传代码,函数工程的打包规范说明如表1所示。 表1 函数工程打包规范 编程语言 JAR包 ZIP包 OBS文件 Node.js 不支持该方式 假如函数工程文件保存在“~/Cod