当前位置:首页 > 嵌入式 > 嵌入式硬件
[导读]Hadoop是一个能够对大量数据进行分布式处理的软件框架。 Hadoop 以一种可靠、高效、可伸缩的方式进行数据处理。Hadoop 是可靠的,因为它假设计算元素和存储会失败,因此它

Hadoop是一个能够对大量数据进行分布式处理的软件框架。 Hadoop 以一种可靠、高效、可伸缩的方式进行数据处理。Hadoop 是可靠的,因为它假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对失败的节点重新分布处理。Hadoop 是高效的,因为它以并行的方式工作,通过并行处理加快处理速度。Hadoop 还是可伸缩的,能够处理 PB 级数据。此外,Hadoop 依赖于社区服务,因此它的成本比较低,任何人都可以使用。

hadoop开发环境

一、在windows上安装linux双系统

hadoop是运行在linux下的并行计算框架,在windows上搭建也是通过cygwin模拟linux的环境来运行,所以个人觉得直接在windows下搭建hadoop几乎没有任何好处,还不如在windows上安装linux的虚拟机,通过虚拟机中的linux系统来运行hadoop。所以安装linux双系统还是很有必要的。

 


二、在linux上安装jdk,并配置java环境

0.下载jdk8

登录网址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

选择对应jdk版本下载。(可在Windows下下载完成后,通过文件夹共享到Linux上)

1.登录Linux,切换到root用户

su 获取root用户权限,当前工作目录不变(需要root密码)

2.在usr目录下建立java安装目录

mkdir usr/java

3.将jdk-8u60-linux-x64.tar.gz拷贝到java目录下并解压

cp /mnt/hgfs/linux/jdk-8u60-linux-x64.tar.gz /usr/java/

tar -zxvf jdk-8u60-linux-x64.tar.gz得到文件夹jdk1.8.0_60

4.编辑配置文件,配置环境变量

vi /etc/profile

添加如下内容:

JAVA_HOME=/usr/java/jdk1.8.0_60

CLASSPATH=$JAVA_HOME/lib/

PATH=$PATH:$JAVA_HOME/bin

exportPATH JAVA_HOME CLASSPATH

5.重启机器或执行命令:source/etc/profile

查看安装情况:

java-version

javaversion “1.8.0_60”

Java(TM)SE RunTIme Environment (build 1.8.0_60-b27)

JavaHotSpot(TM) Client VM (build 25.60-b23, mixed mode)

三、配置SSH免密码登录

1.确认已经连上互联网,输入命令

sudo apt-get install ssh

2.配置为可以无密码登录本机

首先查看在hewei(对应自己用户)用户下是否存在.ssh文件夹(注意ssh前面有“。”,表示这

是一个隐藏文件夹),输入命令:

ls -a /home/hewei

一般来说,安装SSH时会自动在当前用户下创建这个隐藏文件夹,如果没有,可以手动创建

一个。接下来,输入命令:

ssh-keygen -t dsa -P ‘’ -f ~/.ssh/id_dsa

这个命令会在.ssh文件夹下创建两个文件id_dsa及id_dsa.pub,这是SSH的一对私钥和公钥,

类似于钥匙及锁,把id_dsa.pub(公钥)追加到授权的key里面去。

输入命令:

cat ~/.ssh/id_dsa.pub 》》 ~/.ssh/authorized_keys

这条命令是把公钥加到用于认证的公钥文件中,这里的authorized_keys是用于认证的公钥文件。

3.验证SSH是否已安装成功,以及是否可以无密码登录本机

输入命令:

ssh -version

显示结果:

1

显示SSH已经安装成功了。

输入命令:

ssh localhost

显示结果:

2

说明安装成功。

四、安装并运行hadoop ——伪分布式配置

1.进入conf文件夹,修改配置文件:

a.指定JDK的安装位置:

在Hadoop-env.sh中:

exportJAVA_HOME=”你的JDK安装位置”

b.配置HDFS的地址和端口号:

在conf/core-site.xml中:

《configuraTIon》

《property》

《name》fs.default.name《/name》

《value》hdfs://localhost:9000《/value》

《/property》

《/configuraTIon》

c.配置HDFS的备份方式:

在conf/hdfs-site.xml中:

《configuraTIon》

《property》

《name》dfs.replication《/name》

《value》1《/value》

《/property》

《property》

《name》dfs.permissions《/name》

《value》false《/value》

《/property》

《/configuration》

d.配置MapReduce中JobTracker的地址和端口:

在conf/mapred-site.xml中:

《configuration》

《property》

《name》mapred.job.tracker《/name》

《value》localhost:9001《/value》

《/property》

《/configuration》

f.格式化Hadoop并启动验证:

格式化Hadoop:

。/bin/hadoop namenode-format

启动Hadoop:

。/bin/start-all.sh(全部启动)

验证Hadoop是否安装成功,打开浏览器,分别输入网址:

http://localhost:50030(MapReduce的web页面)

http://localhost:50070(HDFS的web页面)

若都能查看,说明Hadoop已经安装成功。

五、在linux上安装Eclipse

1.安装eclipse:

(1)到http://www.eclipse.org/downloads/,下载eclipsefor linux版本,我下载后文件的完整名称为:

eclipse-java-galileo-SR1-linux-gtk.tar.gz

解压缩后,可以查看根目录下的

(2)将eclipse-SDK-3.2.1-linux-gtk.tar.gz这一个文件放到/opt目录下面(用root执行mv_ _语句才能移进opt文件夹)

(3)在shell中进入/opt/,执行:tar -zxvf eclipse-SDK-4.2.1-linux-gtk.tar.gz语句,解压缩下载文件

(4)在shell中,进入到eclipse目录,cd/opt/eclipse设置文件eclipse执行权:chown-R root:你的用户名eclipse[!--empirenews.page--]

(5)创建桌面连接

sudogedit /usr/share/applications/eclipse.desktop

加入以下内容:

[DesktopEntry]Encoding=UTF-8Name=EclipseComment=EclipseSDKExec=/home/hewei/App/Eclipse/eclipseIcon=/home/hewei/App/Eclipse/icon.xpmTerminal=falseType=ApplicationCategories=Application;Development;2.在eclipse中添加hadoop插件

(1)找eclipse安装目录

安装目录:/home/App/Eclipse/eclipse/plugins

把/home/hewei/下载/eclipse-plugin/hadoop-1.0.1-eclipse-plugin.jar

复制到plugins中,就有加载hadoop插件

(2)配置hadoop安装目录

window -》preference -》 hadoop Map/Reduce -》 Hadoopinstallation

directory:/home/grid/hadoop-1.0.1 -》点击“OK”

(3)配置Map/Reduce视图

window -》Open Perspective -》 Map/Reduce -》 点击“OK”

window -》Show View -》 搜索“map/reduceLocations”视图选上-》点击“OK”

在eclipse下方就出现了一个“Map/ReduceLocations选项卡”-》空白地方右键选“New

Hadoop Location”

Location name:Mymapred

Map/Reduce Master : host -》 localhost

DFSMaster : host -》 localhost

(4)在左边projectexplorer列表框中找到“DFSLocations”右键refresh,就会看到

一个目录树,eclipse提供了一个目录树来管理HDFS系统,右键可以创建/删除目录,上传/

查看文件,操作起来很简单,内容与命令hadoopdfs -ls 结果一致

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

今日凌晨,中国台湾东部的花莲县连续发生地震,最高强度为6.3级,震源深度10公里,据中国地震台网分析,本次地震均为4月3日台湾花莲县海域发生的7.3级地震的余震。中国台湾地区在全球半导体供应链中扮演者重要角色,其10nm...

关键字: 固态硬盘 芯片 存储

最近总是出现iPhone16和ipad的概念新闻,以前为了跟风也会更换手机,后来是因为职业原因拍摄大量视频照片占据手机空间而不得已换了一部又一部手机。但慢慢地我发现,想要查找几年前的视频总得翻找之前的手机,流程繁杂又拖沓...

关键字: NAS 互联网 存储

4月12日消息,西部数据展出了业内首款4TB SD卡——闪迪Extreme Pro SDUC 4TB存储卡。

关键字: 西部数据 存储

在嵌入式系统开发、调试和测试过程中,J-Link作为一种高效的调试工具,为开发者提供了极大的便利。然而,要想充分发挥J-Link的功能,首先需要正确安装其驱动程序。本文将详细介绍J-Link驱动的安装过程,并深入解析其中...

关键字: jlink 嵌入式系统 嵌入式开发

与谷歌的合作使 Nordic 能够在 nRF Connect SDK 中嵌入开发人员软件,以构建与安卓移动设备兼容的谷歌Find My Device和未知跟踪器警报服务

关键字: 谷歌 SoC 嵌入式开发

5G、人工智能、物联网、云计算技术快速升级,存储容量和性能需求也快速增长,全球数据量也进而呈现出爆炸式提升的状态。在海量应用场景下依靠单一的存储方式已经无法满足大规模非结构数据,如何在可控成本内高效、弹性地应对每一次数据...

关键字: SSD 存储 物联网

北京——2024年4月9日 越来越多的企业将关键性的工作负载放到云上,如何确保云上业务的连续性即云的韧性对企业来说就越来越重要。在亚马逊云科技,我们从一开始就在基础设施、服务设计与部署、运营模式和机制中将韧性考虑其中。例...

关键字: 服务器 存储 数据中心

嵌入式开发作为当今电子工程和信息技术领域的核心分支,涵盖了广泛的软硬件技术和系统集成方法,用于构建高性能、低成本、低功耗、体积小巧且功能专一的嵌入式系统。这些系统无处不在,从微型传感器节点到复杂的工业控制设备,从日常使用...

关键字: 嵌入式开发 Python

嵌入式开发是当今信息技术领域不可或缺的一部分,它融合了硬件设计、软件开发和系统集成等多个学科,专门用于创建那些被嵌入到特定设备或系统中的专用计算机系统。嵌入式开发的主要过程包括利用分立元件或集成器件进行电路设计、结构设计...

关键字: 嵌入式开发 硬件设计 软件开发

嵌入式开发作为一种专业且技术密集型的领域,涵盖了从硬件底层驱动、中间件到应用层软件开发等多个层面的工作,其所需的工具种类繁多,各有针对性,旨在提升开发效率、保证代码质量以及简化调试过程。

关键字: 嵌入式开发 keil
关闭
关闭