如何学习Spark API?
网友解答: 如何学习Spark API的问题这个好说,这个就是如何学习Spark的问题,首先你得弄明白Spark到底是什么东西,用来干什么的,适合那些场景,和其他的大数据架构有什么区别和
如何学习Spark API的问题这个好说,这个就是如何学习Spark的问题,首先你得弄明白Spark到底是什么东西,用来干什么的,适合那些场景,和其他的大数据架构有什么区别和优点等等。你得结合实例来学习Spark API,然后在调试代码,一直追踪源码,这样你理解的Spark也会越来越深,理解的越来越彻底。而且,你看了源代码之后,对于提升你的代码质量也有很大的好处。你学习去做一些开源的项目来加深你的理解。现在用的多的是Spark+YARN,你可以在这方面多下功夫。
Spark是一个大数据分布式处理框架。是一个通用的大规模数据快速处理引擎。在性能和方案的统一性具有优势。Spark由SparkSQL、SparkStreaming、MLlib和Graph组成,这些结合起来可以解决很大的问题。
Spark的特点快速,在内存上相比于MapReduce快100倍。Spark有一个有向无环图执行引擎,这使得Spark更加好用,而且Spark支持多语言操作。
网友解答:第一阶段:熟练地掌握Scala语言
第二阶段:精通Spark平台本身提供给开发者API
第三阶段:深入Spark内核
相关博文:blog.sina.com.cn/s/articlelist_6375451951_6_1.html