一、选择题
1. HDFS 默认 Block Size的大小是___B___。
A.32MB B.64MB C.128MB D.256M
2. 下列哪项通常是集群的最主要瓶颈____C__。
A. CPU B. 网络 C. 磁盘IO D. 内存
3. HDFS文件系统中一个gzip文件大小75MB,客户端设置Block的大小为默认,请问此文件占用几个Block___B___。
A. 1 B. 2 C. 3 D. 4
4. HDFS是基于流数据模式访问和处理超大文件的需求而开发的,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是 __D____。
A.一次写入,少次读
B.多次写入,少次读
C.多次写入,多次读
D.一次写入,多次读
5. HBase依靠__A____存储底层数据。
A. HDFS B. Hadoop C. Memory D. MapReduce
6. HBase依赖___D___提供强大的计算能力。
A. Zookeeper B. Chubby C. RPC D. MapReduce
7. HBase依赖___A___提供消息通信机制
A. Zookeeper B. Chubby C. RPC D. Socket
8. 下面与HDFS类似的框架是___C____?
A. NTFS B. FAT32 C. GFS D. EXT3
9. 关于 SecondaryNameNode 下面哪项是正确的___C___。
A. 它是 NameNode 的热备
B. 它对内存没有要求
C. 它的目的是帮助 NameNode 合并编辑日志,减少 NameNode 启动时间
D. SecondaryNameNode 应与 NameNode 部署到一个节点
10. 大数据的特点不包括下面哪一项___D___。
A. 巨大的数据量 B. 多结构化数据
C. 增长速度快 D. 价值密度高
二、简答题
1、我们常说HBase是“数据即日志”的数据库,它是怎样修改和删除数据的?和Oracle这类传统的RDBMS有什么区别?
答:由于HBase的数据文件在HDFS系统中,因此本质上很难修改和删除数据。在HBase中,修改和删除数据都是增加1个新版本的数据(时间戳为最新),旧版本的数据并没有发生变化。
Oracle没有数据的版本概念,在修改和删除数据时不会增加新的数据记录,直接对老数据进行修改或删除。一旦完成修改或删除,则原始数据发生变化。

