思特奇分布式计算技术介绍()北京神州数码思特奇信息技术股份有限公司二〇一〇年一月文档信息文档名称电子文档MicrosoftWORD2003文件状态□草稿□正式发布□:MapReduce和HDFS。MapReduce就是“任务的分解与结果的汇总”。HDFS是分布式文件系统,为分布式计算存储提供了底层支持。MapReduce先将一个任务分解成为多个任务,“Reduce”就是将分解后多任务处理的结果汇总起来,得出最后的分析结果。在分布式系统中,机器集群把硬件看作资源池,将并行的任务拆分,然后交由每一个空闲机器资源去处理,能够极大地提高计算效率,同时这种资源无关性,对于计算集群的扩展无疑提供了最好的设计保证。分布式计算就好比蚂蚁吃大象,廉价的机器群可以匹敌任何高性能的计算机。任务分解处理以后,那就需要将处理以后的结果再汇总起来,这就是Reduce要做的工作。HDFS分布式文件系统HDFS是分布式计算的存储基石,具有如下几个特点:对于整个集群单一的命名空间。数据一致性。适合一次写入多次读取的模型,客户端在文件没有被成功创建之前无法看到文件存在。文件会被分割成多个文件块,每个文件块被分配存储到数据节点上,而且根据配置会由复制文件块来保证数据的安全性。HDFS采用master/slave架构。一个HDFS集群由一个Namenode和一定数目的Datanode组成。Namenode是一个中心服务器,负责管理文件系统的namespace和客户端对文件的访问。Datanode在集群中一般是一个节点一个,负责管理节点上它们附带的存储。在内部,一个文件分成一个或多个block,这些block存储在Datanode集合里。Namenode执行文件系统的namespace操作,例如打开、关闭、重命名文件和目录,同时决定block到具体Datanode节点的映射。Datanode在Namenode的指挥下进行block的创建、删除和复制。Namenode和Datanode都是设计成可以跑在普通的廉价的运行linux的机器上。HDFS的设计特点:数据安全:一个Block会有三份备份,一份放在NameNode指定的DataNode,另一份放在与指定DataNode非同一Rack上的DataNode,最后一份放在与指定DataNode同一Rack上的DataNode上。心跳检测DataNode的健康状况,如果发现问题就采取数据备份的方式来保证数据的安全性。数据复制:平衡DataNode的存储利用率、数据交互压力等情况。数据交验:采用CRC32作数据交验。数据管道性的写入:当客户端要写入文件到DataNode上
云计算的分布式计算框架 来自淘豆网m.daumloan.com转载请标明出处.