# bishe-netdisc
**Repository Path**: third_e/bishe-netdisc
## Basic Information
- **Project Name**: bishe-netdisc
- **Description**: Vue+Springboot+MongoDB+HDFS搭建网盘系统
- **Primary Language**: Java
- **License**: Not specified
- **Default Branch**: master
- **Homepage**: None
- **GVP Project**: No
## Statistics
- **Stars**: 11
- **Forks**: 3
- **Created**: 2020-04-13
- **Last Updated**: 2025-03-18
## Categories & Tags
**Categories**: Uncategorized
**Tags**: None
## README
### 项目前端部分:[前端代码](http://gitee.com/third_e/bishe-netdisc-web?_from=gitee_search)
### 一、Hadoop安装
**1.1 伪分布模式**
**1.1.1安装前准备**
(1)安装Linux
下载Ubuntu 16.04
(a)Server --> 服务器版,默认没有带界面。ubuntu-16.04.5-server-amd64.iso
(2)关闭防火墙
查看防火墙状态
$ sudo ufw status
Status: inactive
关闭防火墙
$ sudo ufw disable
防火墙在系统启动时自动禁用
查看防火墙状态:
$ sudo ufw status
Status: inactive
(3)安装JDK
解压到根目录:tar zxvf jdk-8u144-linux-x64.tar.gz -C ~
建一个软链接(方便使用):ln -s jdk1.8.0_144 jdk
配置环境变量:vi ~/.bashrc
(等号两侧不要加入空格)
export JAVA_HOME=/home/hadoop3/jdk
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:.
使得变量生效:source ~/.bashrc
(4)确认openssh-client、openssh-server是否安装:dpkg -l | grep openssh
如果没有安装,则安装:
sudo apt-get install openssh-client
sudo apt-get install openssh-server
(5)安装包解压:tar -zxvf hadoop-2.7.3.tar.gz -C ~
创建超链接:(便于使用):ln -s hadoop-2.7.3 hadoop
配置环境变量:vi ~/.bashrc
export HADOOP_HOME=/home/hadoop3/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
使得变量生效:source ~/.bashrc
(2)配置主机名:sudo vi /etc/hosts (前面加sudo,需要root权限)
191.168.88.130 node1.hadoop3 node1
(3)免密码登录
通过ssh-keyen生成一个RSA的密钥对:ssh-keygen -t rsa -P ''
公钥追加到~/.ssh/authorized_keys文件中:ssh-copy-id -i ~/.ssh/id_rsa.pub 主机名(如上面都nod1)
测试免密码登录:ssh node1
**1.2.2安装**
(1)修改配置文件:
hadoop-env.sh
export JAVA_HOME=/home/hadoop3/jdk
hdfs-site.xml
dfs.replication
1
core-site.xml
fs.defaultFS
hdfs://node1:9000
hadoop.tmp.dir
/home/hadoop3/hadoop/tmp
mapred-site.xml
默认没有(cp mapred-site.xml.template mapred-site.xml)
mapreduce.framework.name
yarn
yarn-site.xml
yarn.resourcemanager.hostname
node1
yarn.nodemanager.aux-services
mapreduce_shuffle
(2)格式化:hdfs namenode -format
(3)启动停止Hadoop的环境
start-all.sh
stop-all.sh
(4)测试
查看进程:jps
通过Web界面:
HDFS: http://191.168.88.130:50070 http://191.168.88.130:50090
Yarn: http://191.168.88.130:8088