1、1)进入spark安装目录下的conf文件夹

2、2)修改配置文件名称

3、3)修改slave文件,添加work节点:

4、4)修改spark-env.sh文件,添加如下配置:

5、5)分发spark包

6、6)启动

7、网页查看:hadoop102:8080注意:如果遇到 “JAVA_HOME not set” 异常,可以在sbin目录下的spark-config.sh 文件中加入如下配置:

8、7)官方求PI


9、8)启动spark shell

10、参数:--master spark://hadoop102:7077指定要连接的集群的master执行WordCount程序
