spark local模式 spark sql在standalone模式下的效率为什么比local低很多?

spark sql在standalone模式下的效率为什么比local低很多?如何初始化一个SparkContext?当om pyspark导入sparkconf时,sparkcontext#loca

spark sql在standalone模式下的效率为什么比local低很多?

如何初始化一个SparkContext?

当om pyspark导入sparkconf时,sparkcontext#local,URL,local computer(slave family的概念)#my app application name,conf=sparkconf()。Setmaster(“local”)。Setappname(“我的应用程序”)SC=sparkcontext(CONF=CONF)。此时,SC是一个sparkcontext。一旦创建了sparkcontext的实例化对象,就可以立即创建RDD。