spark合并hdfs小文件 启动sparkpyspark为什么要先启动hdfs?
启动sparkpyspark为什么要先启动hdfs?usr/spark/sbin/start-全部.sh启动spark失败。我怎么能试试火花-环境sh设置为:exportspark MASTER IP
启动sparkpyspark为什么要先启动hdfs?
usr/spark/sbin/start-全部.sh启动spark失败。我怎么能试试火花-环境sh设置为:exportspark MASTER IP=127.0.0.1 exportspark LOCAL IP=127.0.0.1