博客
关于我
Spark学习笔记01-基础
阅读量:420 次
发布时间:2019-03-06

本文共 1086 字,大约阅读时间需要 3 分钟。

Spark简介

Spark是一个开源的分布式计算框架,基于内存计算,支持多种编程语言(Java、Python、Scala、R),提供了从批量处理到流处理、机器学习等多种计算模式。相比Hadoop,Spark在处理大规模数据时效率更高,适合需要快速响应和迭代的场景。

Spark的特点

1. **高效性**:数据尽可能存储在内存中,减少了I/O操作,速度比Hadoop更快。 2. **易用性**:提供了80多个高级操作符,简化了复杂的数据处理流程。 3. **通用性**:集成了多种功能,如Spark SQL、DataFrame、MLib、GraphX和Spark Streaming,为用户提供了丰富的工具选择。 4. **兼容性**:基于JVM运行,可在不同操作系统上无缝集成。

Spark的运行模式

Spark支持多种集群运行方式,根据实际需求选择: 1. **local模式**:适用于开发和调试,单机运行。 2. **Standalone模式**:采用Master/Slave架构,支持Xookeeper高可用性集群。 3. **Mesos模式**:将资源管理交给Mesos,Spark负责任务调度和计算。 4. **Hadoop YARN模式**:利用Hadoop的资源管理能力,资源调度交给YARN。

Mac本地安装Spark

安装Spark需要以下步骤: 1. **下载**:从Spark官方网站下载合适的版本(本文基于Spark 2.4.1)。 2. **安装**:解压下载的文件并将其放置在安装目录(如`~/Project/tools`)。 3. **配置环境变量**:在`~/.bash_profile`中添加以下内容: ```bash export SPARK_HOME=/Users/shiqiang/Projects/tools/spark-2.4.1-bin-hadoop2.7 export PATH=${PATH}:${SPARK_HOME}/bin ``` 4. **远程登录设置**:在Mac系统中启用远程登录功能,允许安装用户访问本地机器。 5. **启动集群**:运行以下命令启动集群: ```bash ./sbin/start-all.sh ``` 运行JPS命令可以查看Master和Worker的运行状态: ```bash jps ``` 6. **停止集群**:使用以下命令关闭所有服务: ```bash ./sbin/stop-all.sh ```

通过以上步骤,用户可以在本地Mac机器上成功安装并运行Spark集群。

转载地址:http://qhrkz.baihongyu.com/

你可能感兴趣的文章
numpy判断对应位置是否相等,all、any的使用
查看>>
Numpy多项式.Polynomial.fit()给出的系数与多项式.Polyfit()不同
查看>>
Numpy如何使用np.umprod重写range函数中i的python
查看>>
numpy学习笔记3-array切片
查看>>
numpy数组替换其中的值(如1替换为255)
查看>>
numpy数组索引-ChatGPT4o作答
查看>>
numpy最大值和最大值索引
查看>>
NUMPY矢量化np.prod不能构造具有超过32个操作数的ufunc
查看>>
Numpy矩阵与通用函数
查看>>
numpy绘制热力图
查看>>
numpy转PIL 报错TypeError: Cannot handle this data type
查看>>
Numpy闯关100题,我闯了95关,你呢?
查看>>
nump模块
查看>>
Nutch + solr 这个配合不错哦
查看>>
NuttX 构建系统
查看>>
NutUI:京东风格的轻量级 Vue 组件库
查看>>
NutzCodeInsight 2.0.7 发布,为 nutz-sqltpl 提供友好的 ide 支持
查看>>
NutzWk 5.1.5 发布,Java 微服务分布式开发框架
查看>>
NUUO网络视频录像机 css_parser.php 任意文件读取漏洞复现
查看>>
NUUO网络视频录像机 upload.php 任意文件上传漏洞复现
查看>>