-
Spark Python脚本如何引用Python脚本?
__name__ == '__main__': # 创建一个名为"myj"的SparkSession对象 odps = create_spark_session() odps.execute_sql=execute_sql # 执行sql # sql_str="""select
来自:帮助中心 -
自定义参数说明
Memory:8G,numExecutor:14) 否 executorCores 1- 4 Spark应用每个Executor的CPU核数。该配置项会替换“sc_type”中对应的默认参数。 numExecutors 1-100 Spark应用Executor的个数。该配置项会
来自:帮助中心 -
pyodps中的apply用法
-
SQL、DML和DDL
-
[云市场] 北京数倍软件科技有限公司入驻华为云市场,助力云服务,异构数据的交换,整合,迁移
-
《Java并发编程的艺术》 —1.3 资源限制的挑战
-
北京数贝软件科技有限公司入驻华为云市场,助力云服务,异构数据的交换,整合,迁移
-
全量数据迁移
-
增量数据迁移
-
DataX-OBS数据同步工具
-
DataX对接OBS
-
【mrs产品】【hive功能】springboot启动可以登录zk,hive连接执行语句报错
-
方案概述
-
认识DataX及简单入门
-
一篇文章搞懂数据仓库:常用ETL工具、方法
-
原来区别在这!
-
快速搭建DataX数据库迁移环境
-
大数据DataX(一):DataX的框架设计和插件体系
-
从数仓发展史浅析数仓未来技术趋势
-
数仓成员“索引”的正确打开姿势
-
漫谈未来数仓架构如何设计