深圳大数据培训带你了解面试中那些常见的面试题
时间:2018-04-02 14:36:57 | 来源:千锋教育深圳校区 | 作者:千锋大数据技术逐渐被企业所重视,其带来的益处其实是可以被无限放大的,要知道,现在的市场都是,得数据者得天下!而数据的获得还是要靠大数据技术的,Hadoop作为大数据技术的一个重要技术点,在面试大数据工程师的时候是肯定要被问及的,千锋深圳大数据软件培训老师整理一些关于大数据Hadoop的面试题,预祝每一位深圳大数据培训的学员都能找到自己理想的工作。
1、在Hadoop中定义的主要公用InputFormat中,默认是哪一个?(A)
A、 TextInputFormat
B、 KeyValueInputFormat
C、 SequenceFileInputFormat
2、下面哪个程序负责 HDFS 数据存储?(C)
A.NameNode
B.JobTracker
C.DataNode
D.SecondaryNameNode
E.tasktracker
3、HDFS 中的 block 默认保存几份?(A)
A.3 份
B.2 份
C.1 份
D.不确定
4、下列哪个程序通常与 NameNode 在一个节点启动?(D)
A.SecondaryNameNode
B.DataNode
C.TaskTracker
D.JobTracker
解析:hadoop的集群是基于master/slave模式,namenode和jobtracker属于master,datanode和tasktracker属于slave,master只有一个,而slave有多个.
SecondaryNameNode内存需求和NameNode在一个数量级上,所以通常secondary NameNode(运行在单独的物理机器上)和 NameNode 运行在不同的机器上。
JobTracker对应于NameNode,TaskTracker对应于DataNode.
DataNode和NameNode是针对数据存放来而言的.JobTracker和TaskTracker是对于MapReduce执行而言的.
mapreduce中几个主要概念,mapreduce 整体上可以分为这么几条执行线索:
jobclient,JobTracker与TaskTracker。
(1)JobClient会在用户端用JobClient类将已经配置参数打包成jar文件的应用存储到hdfs,并把路径提交到Jobtracker,然后由JobTracker创建每一个Task(即 MapTask 和 ReduceTask) 并将它们分发到各个TaskTracker服务中去执行。
(2)JobTracker是一master服务,软件启动之后JobTracker接收Job,负责调度Job的每一个子任务。task运行于TaskTracker上,并监控它们,如果发现有失败的task就重新运行它。一般情况应该把JobTracker 部署在单独的机器上。
(3)TaskTracker是运行在多个节点上的slaver服务。TaskTracker主动与JobTracker通信,接收作业,并负责直接执行每一个任务。 TaskTracker 都需要运行在HDFS的DataNode上。
5、关于 SecondaryNameNode 哪项是正确的?(C)
A.它是 NameNode 的热备
B.它是内存没有要求
C.他的目的使帮助 NameNode 合并编辑日志,减少 NameNode 启动时间
D. SecondaryNameNode 应与 NameNode 部署到一个节点
6、HDFS 默认 BlockSize 是(B)
A.32MB
B.64MB
C.128MB
7、下列哪项通常是集群的主要瓶颈(C)
A.CPU
B.网络
C.磁盘 IO
D.内存
8、列举几个hadoop生态圈的组件并做简要描述
Zookeeper:是一个开源的分布式应用程序协调服务,基于zookeeper可以实现同步服务,配置维护,命名服务。
Flume:一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。
Hbase:是一个分布式的、面向列的开源数据库, 利用Hadoop HDFS作为其存储系统.
Hive:基于Hadoop的一个数据仓库工具,可以将结构化的数据档映射为一张数据库表,并提供简单的sql 查询功能,可以将sql语句转换为MapReduce任务进行运行。
Sqoop:将一个关系型数据库中的数据导进到Hadoop的 HDFS中,也可以将HDFS的数据导进到关系型数据库中。