Ubuntu配置Spark后有哪些需要注意的

来源:爱站网时间:2022-09-20编辑:网友分享
有不少网友问:Ubuntu配置Spark后有哪些需要注意的?为了帮助各位小伙伴解决问题,爱站技术频道小编整理了以下相关资料,有需要的朋友可以随时来参考阅读下。

对于Spark而言,如果大家只是想摸一下、熟悉熟悉而已,可以搭建单机的Spark,大致步骤如下(我使用VMWare下的Ubuntu 14.04,暂不考虑安全问题,在root下运行):

1、安装Ubuntu 14.04,注意装好后需要禁用防火墙(ufw disable),安装SSH 服务器,启用root用户

2、下载安装JDK-1.8、scala 2.11.8(需要和spark的jar版本配合下,这个其实不是很必要,练习用)、spark、maven(build用,这里的scala版本需要和spark的一致,否则可能出现ClassNotDef异常)

3、在.profile中配置环境变量,如:

export SPARK_HOME=/root/spark-2.2.0-bin-Hadoop2.7

export SPARK_LOCAL_HOST=192.168.162.132

export SPARK_MASTER_HOST=192.168.162.132

4、启动spark:

$SPARK_HOME/sbin/start-master.sh

# 在单机情况下也必须启动,否则没有worker

$SPARK_HOME/sbin/start-slave.sh

5、使用maven编译一个示例程序(当然sbt也可以)

6、提交你的测试程序,如下:

$SPARK_HOME/spark-submit --class "类名" --master spark://IP:Port 打包文件名

另外,注意的一点是需要在/etc/hosts和/etc/hostname中正确配置主机名,否则可能出现IOException

linux

Ubuntu配置Spark后有哪些需要注意的内容不知道你看完了没有,还有哪些需要补充的随时来网站找小编。想要获取更多不同类型的技术文章,尽在js.aizhan.com。

上一篇:CentOS 7配置LAMP的详细步骤

下一篇:CentOS 7配置SVN服务器方法

您可能感兴趣的文章

相关阅读

热门软件源码

最新软件源码下载