Hadoop主要组件是三个, hdfs, mapreduce和 core. HDFS是分布式文件系统,mapreduce是分布式计算平台。 他们组后后可以完成海量数据存储和数据分析的工作。 但是Mapreduce得模型只能处理一些简单的业务,这是他们的受限之处。 对于他们在性能上和可靠性上的问题,hadoop开源本身的发展正在解决问题。