![循序渐进学Spark](https://wfqqreader-1252317822.image.myqcloud.com/cover/742/855742/b_855742.jpg)
上QQ阅读APP看书,第一时间看更新
1.3 Spark集群试运行
下面试运行Spark。
1)在Master主机上,分别启动Hadoop与Spark。
cd /usr/local/hadoop/sbin/ ./start-all.sh cd /usr/local/spark/sbin ./start-all.sh
2)检查Master与Worker进程是否在各自节点上启动。在Master主机上,执行命令jps,如图1-5所示。
![](https://epubservercos.yuewen.com/2E084E/7193960204141001/epubprivate/OEBPS/Images/figure_0023_0001.jpg?sign=1738843817-ylu4V5qVIj9lG9GJmpDmSNgQsJjsvTa6-0-fb765ff44ab10097deb363d4e6acacc7)
图1-5 在Master主机上执行jps命令
在Worker节点上,以Worker1为例,执行命令jps,如图1-6所示。
![](https://epubservercos.yuewen.com/2E084E/7193960204141001/epubprivate/OEBPS/Images/figure_0024_0001.jpg?sign=1738843817-l12kGNYA7Z7BJcjmyOCY66KJhiqTEXAg-0-89459be828e9fde4fd82c0a211c874a3)
图1-6 在Worker节点上执行jps命令
从图1-6中可以清晰地看到,Master进程与Worker及相关进程在各自节点上成功运行,Hadoop与Spark运行正常。
3)通过Spark Web UI查看集群状态。在浏览器中输入Master的IP与端口,打开Spark Web UI,如图1-7所示。
![](https://epubservercos.yuewen.com/2E084E/7193960204141001/epubprivate/OEBPS/Images/figure_0024_0002.jpg?sign=1738843817-0zswORzhAjjxaCcFU6p2BnnqKcRayKeE-0-9eaef28ad262cf57669724d9f9c600a2)
图1-7 Spark Web UI界面
从图1-7中可以看到,当集群内仅有一个Worker节点时,Spark Web UI显示该节点处于Alive状态,CPU Cores为1,内存为1GB。此页面会列出集群中所有启动后的Worker节点及应用的信息。
4)运行样例。Spark自带了一些样例程序可供试运行。在Spark根目录下,example/src/main文件夹中存放着Scala、Java、Python及用R语言编写的样例,用户可以运行其中的某个样例程序。先拷贝到Spark根目录下,然后执行bin/run-example [class] [params]即可。例如可以在Master主机命令行执行:
./run-example SparkPi 10
然后可以看到该应用的输出,在Spark Web UI上也可以查看应用的状态及其他信息。