为什么在Hadoop当中的

2025-01-19 17:22:01
推荐回答(2个)
回答1:

能够存储比单个节点磁盘更大的文件
简化管理系统(block管理和文件管理分开)
单个block损坏更容易修复,方便容错
较大的块有利于磁盘定位
map过程可以一次处理一个block而非一个文件

至于64M只是hadoop先前的默认大小,现在的hadoop2中默认为128M,这一参数可以根据硬件配置、需要存储的文件大小等修改,不是固定参数。

回答2:

hbase是分布式数据库,什么数据都能存。
hbase是没有类型的,全是二进制字节。
你去看看 habse的 client API