正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
新创建的自定义函数F2立即生效 无影响。 如果创建自定义函数携带OR REPLACE,表示需要对已有的函数内容进行功能替换并实时生效。 该功能开启当前需要提交工单开通白名单。 如果要在所有SQL队列上立即生效,需要分别选择SQL队列执行一遍:CREATE OR REPLACE xxx FUNCTION
新创建的自定义函数F2立即生效 无影响。 如果创建自定义函数携带OR REPLACE,表示需要对已有的函数内容进行功能替换并实时生效。 该功能开启当前需要提交工单开通白名单。 如果要在所有SQL队列上立即生效,需要分别选择SQL队列执行一遍:CREATE OR REPLACE xxx FUNCTION
介绍怎样创建提交Spark作业 02:54 数据湖探索Spark作业入门指导 数据湖探索 DLI 介绍怎样使用Flink SQL进行电商实时业务数据分析 23:40 使用DLI Flink SQL进行电商实时业务数据分析
trunc trunc函数用于将date按照特定的格式进行清零操作。 清零操作即返回默认值,年、月、日的默认值为01,时、分、秒、毫秒 的默认值为00。 命令格式 trunc(string date, string format) 参数说明 表1 参数说明 参数 是否必选 参数类型
trunc trunc函数用于将date按照特定的格式进行清零操作。 清零操作即返回默认值,年、月、日的默认值为01,时、分、秒、毫秒 的默认值为00。 命令格式 trunc(string date, string format) 参数说明 表1 参数说明 参数 是否必选 参数类型
MPORT和EXPORT分别与导入数据(废弃)和与导出数据(废弃)的功能一致,区别仅在于实现方式不同。 另外,用户可使用其他API来对作业进行查询和管理。具体操作有: 查询作业状态 查询作业详细信息 查询作业结果-方式一(废弃) 导出查询结果 查询所有作业 取消作业(废弃) 该A
”类型作业的执行结果。 当前接口已废弃,不推荐使用。 该API只能查看前1000条的结果记录,若要查看全部的结果记录,需要先导出查询结果再进行查看,详细请参见导出查询结果。 URI URI格式: GET/v1.0/{project_id}/queues/{queue_name}/jobs/{job_id}
运维指导 欠费导致权限不足 进行程序包更新操作时提示权限不足 执行SQL查询语句报错:DLI.0003: Permission denied for resource.... 已经给表授权,但是再次报错无法查询怎么办? 表继承数据库权限后,对表重复赋予已继承的权限会报错吗? 为什
"ip":"192.168.0.1", "name":"ecs-97f8-0001" }, { "ip":"192.168.0.2", "name":"ecs-97f8-0002" } ] } 响应示例 { "is_success":
会再执行insert overwrite或者truncate语句时,多版本保留周期外的数据不会自动清理。可以通过本章节介绍的SQL命令手动进行多版本数据清理。 语法格式 清理多版本保留周期外数据。 clear history for table [db_name.]table_name
keyvalue keyvalue函数用于计算将字符串str按照split1进行切分,并按split2将每组变成Key-Value对,返回key所对应的Value。 命令格式 keyvalue(string <str>,[string <split1>,string <split2>
果。目前仅支持查看“QUERY”类型作业的执行结果。 该API只能查看前1000条的结果记录,若要查看全部的结果记录,需要先导出查询结果再进行查看,详细请参见导出查询结果。 当前接口已废弃,不推荐使用。 URI URI格式: GET/v1.0/{project_id}/jobs/{job_id}
keyvalue keyvalue函数用于计算将字符串str按照split1进行切分,并按split2将每组变成Key-Value对,返回key所对应的Value。 命令格式 keyvalue(string <str>,[string <split1>,string <split2>
Spark模板管理 操作场景 在创建Spark作业时,您可以在已有的Spark样例模板中进行修改,来实现实际的作业逻辑需求,节约编辑SQL语句的时间。 当前云平台尚未提供预置的Spark模板,但支持用户自定义Spark作业模板,本节操作介绍在Spark管理页面创建Spark模板的操作方法。
SORTED as parquet LOCATION 'obs://akc-bigdata/akdc.db' 如果指定路径为akdc.db时,进行insert overwrite操作时,会将akdc.db下的数据都清空,造成重大事故。 父主题: 作业开发
stTable数据的权限,则需要重新对该表进行权限赋予。 问题根因 删除表后再重建同名的表,该场景下表权限不会自动继承,需要重新对需要操作该该表的用户或项目进行赋权操作。 解决方案 表删除再创建后,需要重新对需要操作该表的用户或项目进行赋权操作。具体操作如下: 在管理控制台左侧,单击“数据管理”>“库表管理”。
会再执行insert overwrite或者truncate语句时,多版本保留周期外的数据不会自动清理。可以通过本章节介绍的SQL命令手动进行多版本数据清理。 语法格式 清理多版本保留周期外数据。 clear history for table [db_name.]table_name
系统默认队列最大规格为512CUs。 进行定时扩缩容操作的队列最小规格为64CUs,即当“实际CUs”小于64CUs时,不能进行定时扩缩容。 最终规格只能为16的倍数。 重复规律 选择执行定时扩缩容的周期。定时任务的“重复规律”支持按周为周期进行调度。 默认不选,表示“不重复”,即只在“执行时间”执行一次;
弹性资源池关联队列: 仅支持关联按需计费模式的队列(包括专属队列)。 队列和弹性资源池状态正常,资源未被冻结。 当前仅支持包年包月计费模式的弹性资源池进行规格变更。 仅支持查看30天以内的弹性资源池扩缩容历史。 弹性资源池不支持访问公网。 如有访问公网诉求请您参考配置DLI 队列与公网网络连通。
DLI中的Spark组件与MRS中的Spark组件有什么区别? DLI的数据可存储在哪些地方 DLI表与OBS表的区别 不上传数据到OBS,如何使用DLI DLI是否支持导入其他租户共享OBS桶的数据? 区域和可用区 全局变量的使用中,一个子账号是否可以使用其他子账号创建的全局变量