Skip to content

Latest commit

 

History

History
58 lines (40 loc) · 1.94 KB

ubuntu-spark.md

File metadata and controls

58 lines (40 loc) · 1.94 KB

Ubuntu 下安装spark-3.0.0-hadoop3.2 (单机主从)

1.官网下载: https://archive.apache.org/dist/spark/spark-3.0.0-preview/

安装包名: (spark-3.0.0-preview-bin-hadoop3.2.tar)

2.将安装包移动到/usr/local目录下解压: tar -zvxf spark-3.0.0-preview-bin-hadoop3.2.tar

进入目录: cd spark-3.0.0-preview-bin-hadoop3.2/

进入conf目录: cd conf/

重命名文件: mv spark-env.sh.template spark-env.sh

编辑文件: vi spark-env.sh

   export JAVA_HOME=/usr/local/jdk1.8.0_201
   export SPARK_MASTER_IP=localhost
   export HADOOP_HOME=/usr/local/hadoop-3.2.1
   export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

保存后进入spark安装目录下sbin/目录: 运行 ./start-all.sh启动spark (注意确保ssh本地免密登录已开启, 否则无法启动Worker)

运行jps命令即可查看启动的Worker和Master进程

浏览器访问http://localhost:8080访问Spark web ui界面

3.执行一个测试案例 (进入spark安装目录下的bin/): 运行一个计算Pi值的案例:

./spark-submit --class org.apache.spark.examples.SparkPi /usr/local/spark-3.0.0-preview-bin-hadoop3.2/examples/jars/spark-examples_2.12-3.0.0-preview.jar 100

得到如下结果: Pi is roughly 3.1417443141744315

4.启动spark-shell, 同在bin/目录下运行./spark-shell 即以local本地模式进入spark-shell

访问http://localhost:4040进入spark的Job管理Web UI界面

(如果是集群: 以集群cluster模式进入spark-shell:)
 ./spark-shell \
 > --master spark://主节点IP:7077 \
 > --executor-memory 512m \
 > --total-executor-cores 2

5.Windows下配置安装Scala环境, 下载(https://www.scala-lang.org/download/2.12.10.html)

选择: scala-2.12.10.zip下载

解压并配置Windows的环境变量: 如: SCALA_HOME=D:\Program Files\scala-2.12.10 path添加: D:\Program Files\scala-2.12.10\bin