能够存储比单个节点磁盘更大的文件简化管理系统(block管理和文件管理分开)单个block损坏更容易修复,方便容错较大的块有利于磁盘定位map过程可以一次处理一个block而非一个文件至于64M只是hadoop先前的默认大小,现在的hadoop2中默认为128M,这一参数可以根据硬件配置、需要存储的文件大小等修改,不是固定参数。
hbase是分布式数据库,什么数据都能存。hbase是没有类型的,全是二进制字节。你去看看 habse的 client API