spark如何在executor端调用sparkSession,让其sparkSession.read.format(com.mongodb.spark.sql)读取数据源生成dataframe,sparksession是定义在driver端的,在开发中有何种方式避开闭包?
数据量不大的情况下 你可以在driver端读数据然后分发到worker上
`单行代码`
关注海汼部落技术社区