检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
avg函数用于计算求平均值。 命令格式 avg(col), avg(DISTINCT col) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 col 是 所有数据类型 列值支持所有数据类型,可以转换为DOUBLE类型后参与运算。 返回值说明 返回DOUBLE类型的值。 如果col值为NULL时,该列不参与计算。
length(string <str>) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 str 是 STRING 待搜索的目标字符串。 如果输入为BIGINT、DOUBLE、DECIMAL或DATETIME类型,则会隐式转换为STRING类型后参与运算,其他类型会返回报错。 返回值说明
ordinal ordinal函数用于将输入变量按从小到大排序后,返回nth指定位置的值。。 命令格式 ordinal(bigint <nth>, <var1>, <var2>[,...]) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 nth 是 BIGINT类型。
BIGINT类型常量,必须大于0。表示返回段的开始编号(从1开始)。 end 否 BIGINT BIGINT类型常量,大于等于start。表示返回段的截止编号,可省略,缺省时表示和start取值相等,返回start指定的段。 返回值说明 返回STRING类型的值。 如果start的值大于切分后实际的分段
"message": "" } 状态码 状态码如表4所示。 表4 状态码 状态码 描述 200 修改成功。 404 错误请求。 错误码 调用接口出错后,将不会返回上述结果,而是返回错误码和错误信息,更多介绍请参见错误码。 表5 错误码 错误码 错误信息 DLI.0002 No
<charset>) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 str 是 STRING 至少要指定2个字符串。 STRING类型。如果输入为BIGINT、DECIMAL、DOUBLE或DATETIME类型,则会隐式转换为STRING类型后参与运算。 charset 是
据源网段不能重合。 访问跨源表需要使用已经创建跨源连接的队列。 跨源表不支持Preview预览功能。 检测连通性要求 检测跨源连接的连通性时对IP约束限制如下: IP必须为合法的IP地址,用“.”分隔的4个十进制数,范围是0-255。 测试时IP地址后可选择添加端口,用":"隔开
STRING 返回分区表的一级分区中有数据的分区的最大值,按字母排序,且读取该分区下对应的数据。 ordinal ordinal(bigint <nth>, <var1>, <var2>[,...]) DOUBLE或DATETIME 将输入变量按从小到大排序后,返回nth指定位置的值。
string <str>) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 str 是 STRING 待去除左端字符的字符串。如果输入为BIGINT、DECIMAL、DOUBLE或DATETIME类型,则会隐式转换为STRING类型后参与运算。 trimChars 是 STRING
e文件后,可以在文件夹中看到transport-keystore.jks文件,使用如下命令验证keystore文件和证书信息。 keytool -list -v -keystore transport-keystore.jks 正确输入keystore password后即可看见相应的信息。
DOWNLOAD”页面,单击选择所需的SDK链接,即可获取对应的SDK安装包。 “dli-sdk-python-x.x.x.zip”压缩包,解压后目录结构如下: 表1 目录结构 名称 说明 dli python环境的DLI SDK基础模块。 examples python样例代码。 pyDLI
输入为ARRAY数组 表1 参数说明 参数 是否必选 参数类型 说明 a、b 是 STRING ARRAY数组。 array<T>中的T指代ARRAY数组元素的数据类型,数组中的元素可以为任意类型。 a和b中元素的数据类型必须一致。数组中的元素为NULL值时会参与运算。 输入为字符串 表2 参数说明
为十六进制表示形式,并返回结果string select hex(68); -- 44 select hex('AE'); -- 4145 to_base(x, radix) → varchar 将一个整数转成radix进制数的字符表示,如将十进制的18转为3进制的表示法 select
String 对应服务的子网关联的路由表。 hosts 否 Array of Objects 用户自定义主机信息,最大支持2万条记录,详细信息参见表 hosts请求参数。 tags 否 Array of Objects 跨源连接的标签。具体请参考表4。 表3 hosts请求参数 参数名称
Python SDK环境配置 操作场景 在进行二次开发时,要准备的开发环境如表1所示。 表1 开发环境 准备项 说明 操作系统 Windows系统,推荐Windows 7及以上版本。 安装Python Python版本建议使用2.7.10和3.4.0以上版本,需要配置Visual
描述 向表中插入新的数据行。 如果指定了列名列表,那么这些列名列表必须与query语句产生列列表名完全匹配。表中不在列名列表中的每一列,其值会设置为null。 如果没有指定列名列表,则query语句产生的列必须与将要插入的列完全匹配。 使用insert into时,会往表中追加数据,而使用insert
队列管理”下,单击右上角“购买队列”,进入购买队列页面选择“通用队列”,即Spark作业的计算资源。 如果创建队列的用户不是管理员用户,在创建队列后,需要管理员用户赋权后才可使用。关于赋权的具体操作请参考《数据湖探索用户指南》。 DLI 客户端工具下载 您可以在DLI管理控制台下载DLI客户端工具。
/v3/{project_id}/elastic-resource-pools 参数说明 表1 URI参数说明 参数 是否必选 参数类型 描述 project_id 是 String 项目编号,用于资源隔离。获取方式请参考获取项目ID。 请求消息 表2 请求参数说明 参数 是否必选 参数类型 描述 elast
Map函数和运算符 下表操作符: [] 描述:[]运算符用于从映射中检索与给定键对应的值。 select age_map['li'] from (values (map(array['li','wang'],array[15,27]))) as table_age(age_map);--
对于每个作业都允许设置优先级,其取值为1-10,数值越大表示优先级越高。优先满足高优先级作业的计算资源,即如果高优先级作业计算资源不足,则会减少低优先级作业的计算资源 通用队列上运行的Spark作业的优先级默认为3。 调整作业优先级需要停止作业后编辑,并重新提交运行才能生效。 Spark作业操作步骤