spark教程菜鸟教程 安装spark需要先安装hadoop吗?
安装spark需要先安装hadoop吗?如果您只在伪分布式模式下安装spark,就不能安装Hadoop,因为您可以直接从本地读取文件。如果spark是以完全分布式模式安装的,因为我们需要使用HDFS来
安装spark需要先安装hadoop吗?
如果您只在伪分布式模式下安装spark,就不能安装Hadoop,因为您可以直接从本地读取文件。如果spark是以完全分布式模式安装的,因为我们需要使用HDFS来持久化数据,那么我们通常需要首先安装Hadoop。
spark怎么实现对hbase分布式计算?
Sparksql是shark,即sqlonspark。如果您没记错的话,shark的开发使用hive的API,所以它支持读取HBase。而且spark的数据类型兼容范围比Hadoop大,包括Hadoop支持的任何数据类型。