Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。

至于如何学习,当然就是看书学习了,纸质书或者电子书都可以。如果有钱,也可以选择去培训机构学习。

然后呢,学习这块切记不能闭门造车,要多交流多沟通,多上相关的社区论坛看看,多跟大神们请教请教。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注