彩票走势图

干货|50个大数据面试问题及答案第三篇:10个大数据Hadoop面试问题

原创|大数据新闻|编辑:蒋永|2019-03-08 10:29:53.000|阅读 2476 次

概述:上两篇慧都网注意分享了20大数据面试问题及答案,本次我们将跨入大数据Hadoop面试环节,来看看大数据Hadoop面试会有哪些问题,并给出参考答案,供您学习。

# 慧都年终大促·界面/图表报表/文档/IDE等千款热门软控件火热促销中 >>

相关链接:

在上两次文章中我们慧都网给大家分享了,对于刚刚从事大数据行业和已从事大数据行业的面试者可能会遇到的专业面试题20道,如果还没有阅读的朋友可以跳转观看哦!

干货|50个大数据面试问题及答案第一篇:10个大数据面试入门级问题

干货|50个大数据面试问题及答案第二篇:10个大数据面试中级问题

本次我们就来分享一下10个大数据Hadoop面试时会问的专业问题。

Hadoop是最受欢迎的大数据框架之一,如果您正在进行Hadoop面试,请为Big Data Hadoop准备这些基本级别的面试问题。无论您是要参加Hadoop开发人员还是Hadoop Admin面试,这些问题都将对您有所帮助。

21.解释Hadoop和RDBMS之间的区别。

答: Hadoop和RDBMS之间的区别如下 :

Hadoop和RDBMS之间的区别

22. Hadoop中常见的输入格式是什么?

答:以下是Hadoop中常见的输入格式 -

  • 文本输入格式 - Hadoop中定义的默认输入格式是文本输入格式。
  • 序列文件输入格式 -要读取序列中的文件,请使用序列文件输入格式。
  • 键值输入格式 -用于纯文本文件(分成行的文件)的输入格式是键值输入格式。

23.解释Hadoop的一些重要特性。

答: Hadoop支持大数据的存储和处理。它是处理大数据挑战的最佳解决方案。Hadoop的一些重要功能是 -

  • 开源 - Hadoop是一个开源框架,这意味着它是免费提供的。此外,允许用户根据他们的要求更改源代码。
  • 分布式处理 - Hadoop支持数据的分布式处理,即更快的处理。Hadoop HDFS中的数据以分布式方式存储,MapReduce负责数据的并行处理。
  • 容错力 - Hadoop具有高度容错能力。默认情况下,它为不同节点的每个块创建三个副本。这个数字可以根据要求改变。因此,如果一个节点发生故障,我们可以从另一个节点恢复数据。节点故障的检测和数据的恢复是自动完成的。
  • 可靠性 - Hadoop以独立于计算机的可靠方式在群集上存储数据。因此,存储在Hadoop环境中的数据不受机器故障的影响。
  • 可伸缩性 - Hadoop的另一个重要特性是可伸缩性。它与其他硬件兼容,我们可以轻松地将新硬件分配给节点。
  • 高可用性 -即使在硬件故障后,也可以访问存储在Hadoop中的数据。如果硬件发生故障,可以从另一个路径访问数据。

24.解释Hadoop运行的不同模式。

答: Apache Hadoop运行在以下三种模式 -

  • 独立(本地)模式 -默认情况下,Hadoop以本地模式运行,即在非分布式单节点上运行。此模式使用本地文件系统执行输入和输出操作。此模式不支持使用HDFS,因此用于调试。在此模式下,配置文件不需要自定义配置。
  • 伪分布式模式 -在伪分布式模式下,Hadoop就像独立模式一样在单个节点上运行。在此模式下,每个守护程序都在单独的Java进程中运行。由于所有守护进程都在单个节点上运行,因此主节点和从节点都有相同的节点。
  • 完全分布式模式 -在完全分布式模式下,所有守护进程都在不同的单个节点上运行,从而形成一个多节点集群。主节点和从节点有不同的节点。

25.解释Hadoop的核心组件。

答: Hadoop是一个开源框架,用于以分布式方式存储和处理大数据。Hadoop的核心组件是 -

  • HDFS(Hadoop分布式文件系统) - HDFS是Hadoop的基本存储系统。在商用硬件集群上运行的大型数据文件存储在HDFS中。即使硬件出现故障,它也能以可靠的方式存储数据。

Hadoop的核心组件

Hadoop的核心组件

  • Hadoop MapReduce - MapReduce是负责数据处理的Hadoop层。它编写了一个应用程序来处理存储在HDFS中的非结构化和结构化数据。它负责通过将数据划分为独立任务来并行处理大量数据。处理分两个阶段完成Map和Reduce。Map是指定复杂逻辑代码的第一个处理阶段,Reduce是指定轻量级操作的第二阶段处理。
  • YARN - Hadoop中的处理框架是YARN。它用于资源管理并提供多种数据处理引擎,即数据科学,实时流和批处理。

26.“MapReduce”程序中的配置参数是什么?

答:“MapReduce”框架中的主要配置参数是:

  • 在分布式文件系统中输入Jobs的位置
  • 在分布式文件系统中输出Jobs的位置
  • 数据的输入格式
  • 数据的输出格式
  • 包含map函数的类
  • 包含reduce函数的类
  • 包含mapper,reducer和驱动程序类的JAR文件

27. HDFS中的块是什么?它在Hadoop 1和Hadoop 2中的默认大小是多少?我们可以改变块大小吗?

答:块是硬盘中最小的连续数据存储。对于HDFS,块存储在Hadoop集群中。

  • Hadoop 1中的默认块大小为:64 MB
  • Hadoop 2中的默认块大小为:128 MB

是的,我们可以使用位于hdfs-site.xml文件中的参数--dfs.block.size 来更改块大小。

28.什么是MapReduce框架中的分布式缓存

答:分布式缓存是Hadoop MapReduce框架的一项功能,用于缓存应用程序的文件。Hadoop框架使缓存文件可用于在数据节点上运行的每个map / reduce任务。因此,数据文件可以作为指定作业中的本地文件访问缓存文件。

29. Hadoop的三种运行模式是什么?

答:Hadoop的三种运行模式如下:

Ⅰ、独立或本地:这是默认模式,不需要任何配置。在此模式下,Hadoop的以下所有组件都使用本地文件系统并在单个JVM上运行 -

  • 的NameNode
  • 数据管理部
  • 的ResourceManager
  • 节点管理器

II、伪分布式:在此模式下,所有主从Hadoop服务都在单个节点上部署和执行。

III、完全分布式:在此模式下,Hadoop主服务器和从服务器在不同的节点上部署和执行。

30.在Hadoop中解释JobTracker

答:JobTracker是Hadoop中的JVM进程,用于提交和跟踪MapReduce作业。

JobTracker按顺序在Hadoop中执行以下活动 :

  • JobTracker接收客户端应用程序提交给作业跟踪器的作业;
  • JobTracker通知NameNode确定数据节点;
  • JobTracker根据可用的插槽分配TaskTracker节点;
  • 它提交了已分配的TaskTracker节点的工作;
  • JobTracker监视TaskTracker节点;
  • 当任务失败时,会通知JobTracker并决定如何重新分配任务。

欢迎拨打慧都热线023-68661681或咨询,我们将帮您转接大数据专家团队,并发送相关资料给您!

下期预告:干货|50个大数据面试问题及答案第四篇:Hadoop开发人员面试新手的问题


标签:大数据解决方案

本站文章除注明转载外,均为本站原创或翻译。欢迎任何形式的转载,但请务必注明出处、不得修改原文相关链接,如果存在内容上的异议请邮件反馈至chenjj@pclwef.cn


为你推荐

  • 推荐视频
  • 推荐活动
  • 推荐产品
  • 推荐文章
  • 慧都慧问
扫码咨询


添加微信 立即咨询

电话咨询

客服热线
023-68661681

TOP