当前位置:首页 > 虚拟机 > 正文

虚拟机安装hadoop步骤


一、hadoop安装及speak安装掌握如何在Linux虚拟机中安装Hadoop和Spark,熟悉HDFS的基本使用,掌握如何使用Spark访问本地文件和HDFS文件。
进入Linux系统,参考本教程官网“实验指南”栏目“安装和使用Hadoop”,完成Hadoop伪分布式模式的安装。完成Hadoop安装后,安装Spark(本地模式)。使用Hadoop用户名登录Linux系统,启动Hadoop,参考相关Hadoop书籍或网上资料,也可以参考官方“实验指南”栏目中的“HDFS操作常用Shell命令”本教程的网站。
Hadoop是由Apache基金会开发的分布式系统基础设施。用户可以在不了解分布式底层细节的情况下开发分布式程序。充分利用集群的强大功能来实现高速计算和存储。